Digitální technologie přispívají k polarizaci. Algoritmus posiluje vlastní názory a odmítá názory cizí, čímž omezuje dialog a tím se také ochuzujeme o názory druhých. To je jedna z tezí, kterou zastává františkán Paolo Benanti ve své nejnovější knize ‚El colapso de Babel‘ (Pád Babylonu) vydané nakladatelstvím Encuentro. Polarizace však zdaleka není jediným rizikem.
Na začátku ledna došlo k polemice, která vznikla poté, co Grok, model umělé inteligence Elona Muska, umožnil vytváření obrázků sexuální povahy na základě obrázků, které některé ženy nahrály na sociální síť „X“.
Fra Paolo Benanti (Řím, 1973), morální teolog, je jedním z předních světových odborníků na etiku umělé inteligence (AI). Předsedá pracovní skupině AI italské vlády a komisi odborníků OSN pro tuto problematiku. Jeho názor je zvláště autoritativní, pokud jde o aktuální téma, které znepokojuje vlády i společnost.
Naposledy vystoupil ve Španělsku před dvěma měsíci v nadaci Fundación Telefónica a na setkání Encuentro Madrid, což je každoroční akce pořádaná hnutím Comunión y Liberación ve čtvrti Cuatro Vientos (Madrid). V letošním ročníku hovořil Benanti právě o „Umělé inteligenci a vytváření věčného“.
Kdo dohlíží na AI?
Když mluvíme o umělé inteligenci, nemluvíme o jedné technologii, ale o celé řadě algoritmů, které se od sebe velmi liší. Některé jsou velmi srozumitelné. Trochu to připomíná první GPS. Kolikrát vám GPS řekne, abyste odbočili doprava a hned nato zase doleva? Bylo to chytré, ale chápali jsme, že je to chytré, protože to byla kratší cesta. Tato umělá inteligence dělá práci, kterou by udělala i přirozená inteligence.
Ale jsou to černé skříňky. Některé z těchto algoritmů mohou mít mnohem inteligentnější výsledky, ale jsou to černé skříňky.
Otázka zní: Můžeme použít všechny typy algoritmů pro všechny typy funkcí?
To je jeden z etických problémů umělé inteligence. Představte si, že chcete použít umělou inteligenci k třídění kávových zrn v továrně na výrobu kávy. Dříve se to dělalo ručně, zrno po zrnu, protože pokud je jen jedno zrno plesnivé, zkazí chuť všech ostatních.
Tento proces se provádí pomocí algoritmu zvaného Deep Learning (Hluboké učení). Nelze jej však vysvětlit.
Nejhorší, co se může stát, je, že vyhodíme hodnotná kávová zrna. Ale možná to bude levnější než najmout člověka, který bude vybírat zrno po zrnu.
Stejný algoritmus však lze použít na pohotovosti v nemocnici k výběru pacienta, který bude ošetřen jako první.
Je zřejmé, že problém není v algoritmu, ale v tom, kde jej v rámci sociální struktury použijeme.
Problém umělé inteligence dnes již není technickou otázkou, ale otázkou sociální spravedlnosti, která nám říká, jakou funkci má plnit člověk a jakou algoritmus. To vyžaduje víceoborový přístup.
Zajímavé na tom je, že se jedná o základ sociální nauky církve. A to je důvod, proč papež Lev XIV. ve svém prvním veřejném projevu prohlásil, že my katolíci jako takoví můžeme nabídnout pouze sociální nauku církve, která neposkytuje odpovědi, ale klade otázky. Otázky, které se snaží chránit důstojnost člověka a jeho práce.
Nebojíme se změn, ale chceme se postavit na stranu člověka. Druhým prvkem je, že papež František, když psal řádky o katolické formaci, zejména pro budoucí kněze, hovoří o spolupráci mezioborové a o spolupráci obory přesahující. Opět je to tedy výzva spíše kulturní než technická. To je hranice, na které se dnes odehrávají debaty.
Ale kdo stojí za touto technologií?
Nejprve je třeba porozumět tomu, že tato technologie mění způsob, jakým k problému přistupujeme. Celé 19. století bylo ve znamení zlomu ve vědecké racionalitě. Dříve jsme byli přesvědčeni o deterministickém modelu.
Ale když se zamyslíme nad tím, co se stalo v subatomární (menší než atom) fyzice, kde díky Heisenbergově principu neurčitosti nevíme, kde se elektron nachází, ani jakou rychlostí se pohybuje, museli jsme přejít k pravděpodobnostnímu modelu. Totéž platí pro astrofyziku, kde Einstein hovoří o relativitě. Od modelu jistoty jsme přešli k modelu pravděpodobnosti.
Jedná-li se o model statistický, kroky neurčuje lidská mysl, ale stroj, který z daných dat extrahuje modely.
Tento model velmi ztěžuje odpověď na otázku, zda za tím někdo stojí, či nikoli. Často se hovoří o „předpojatosti“, což se v angličtině vyjadřuje slovem „bias“. Slovo bias však lze také přeložit jako „systematická (soustavná/promyšlená) preference“.
Předpokládejme, že chci vytvořit autonomní automobil. Shromáždím všechna data o tom, jak se jezdí v Madridu. A stroj zjistí, že existuje soustavná preference zastavovat na červenou (mluvím o Madridu, ne o Římě…). Chci, aby takováto preference existovala.
Ale stroj by například mohl vidět, že auto nezastaví stejným způsobem, když přechází dítě nebo dospělý. A mohl by se rozhodnout nezastavit, když jsou na silnici děti. Proč? Protože dítě je méně viditelné a řidič ho vidí později. V tomto případě je tedy stroj vůči dětem zaujatý. Totéž by se mohlo stát v noci například u lidí s tmavou pletí. Byl by někdo zlý, kdyby uplatňoval tento „předsudek“?
Je tu tolik dat, že žádný lidský mozek není schopen je všechny zpracovat. V čem je problém? Silicon Valley nám říká, že měníme svět. Ale nevíme, nikdo do hloubky neví, jaké koncepty stroj (počítač) našel.
Je to problém epistemologický (týkající se vědeckého poznání). A etický. A právní. Kdo je zodpovědný, pokud auto srazí dítě? Majitel? Ten neřídí. Výrobce? Softwarový inženýr? Je to velmi složité.
Skutečným problémem umělé inteligence je její složitost.
Na druhou stranu nám to může ušetřit spoustu peněz. Vzniká tak napětí, které musíme nějakým způsobem regulovat, aby se zabránilo tomu, že ti, kdo rozhodují, tak činí pouze z ekonomických důvodů nebo ze strachu.
Umělá inteligence a práce
Může umělá inteligence nakonec nahradit lidskou práci?
Umělá inteligence není schopna vykonávat všechny úkoly stejným způsobem. Existuje paradox, který vytvořil informatik jménem Moravec, který říká, že pro stroj je mnohem snazší vykonávat intelektuálně náročné úkoly než ty méně náročné. Tj. například solární kalkulačku, která umí vypočítat druhou odmocninu, si můžete koupit na internetu za jedno euro. Ale robotická ruka, která vezme lžičku a zamíchá kávu, stojí 150 000 až 200 000 eur. Vztáhněte to na práci.
Bankéř pracuje s mnoha čísly. Manuální pracovník v kovoprůmyslu pracuje hodně s kladivem. To znamená, že první pracovní místa, která zmizí, budou ta nejlépe placená. To by mohlo vyvolat sociální napětí, které by, pokud nebude politicky zvládnuto, mohlo poškodit demokratický systém.
A konkrétně například v oblasti žurnalistiky? Je novinář prostě jen někdo, kdo něco převádí do textové podoby? Můžeme ho nahradit psacím strojem. Nebo je to společenská funkce, která zaručuje demokratický prostor?
Jsem předsedou italské vládní komise pro studium dopadu umělé inteligence na žurnalistiku a vydavatelství. Došli jsme k závěru, že novináři mají zásadní význam pro demokracii. Ale novináři mohou existovat jen díky vydavatelskému průmyslu, který je může platit.
Musíme si ale přiznat problém, který nesouvisí s umělou inteligencí, ale se sociálními sítěmi. Proč, když vy novináři něco napíšete, můžete být postaveni před soudce, ale když je to sociální síť, nikdo jí nic neřekne?
Proč může být ředitel postaven před soud? A algoritmus sociální sítě, který dělá výběr toho, co já čtu, je zproštěn ode všeho. Dnes k tomu přibývá schopnost počítače psát. Ale zde opět nejsou problémem schopnosti stroje. Je to ekonomická výhodnost.
V povaze tohoto povolání je, že je nezbytné pro přežití demokratického prostoru.
V loňském roce se v této oblasti hodně změnilo. Dříve jsme mluvili o vědě a technologii, o činnostech, ve kterých, když udělám nějaký objev (mám na mysli například Nobelovu cenu), znamená to objev pro všechny lidi. Všichni z toho mají prospěch.
Dnes se ale mluví o kariéře. Pokud já vyhraji, vy prohrajete. To činí tento přístup nemožným.
