Naše touha vytvořit superinteligentní AI nás může poslat na cestu zkázy, ale ještě není příliš pozdě změnit kurz. To tvrdí uznávaní výzkumníci bezpečnosti AI z Machine Intelligence Research Institute (MIRI) Eliezer Yudkowsky a Nate Soares ve své nové knize If Anyone Builds It, Everyone Dies (volně přeloženo: Když to někdo vytvoří, všichni zemřou).
Jaké jsou jejich argumenty pro to, že defaultní výsledek opravdu superinteligentní AI je ztráta kontroly?
Do jaké míry brát knihu vážně, a do jaké míry je to hypotetický scénář?
Postupně projdeme argumentaci a teze jednotlivých kapitol knihy. Přestože autoři patří k těm nejvíce pesimistickým odborníkům, jimi popisované důvody jsou standardní součástí aktuální diskuse a je užitečné o nich uvažovat. Před stejnými riziky varují i ti nejvíce prominentní výzkumníci z oboru AI (např. držitel Nobelovy ceny Geoffrey Hinton či nejcitovanější žijící vědec Yoshua Bengio) a zároveň šéfové společností, které jsou na čele vývoje umělé inteligence. Viz signatáři Statement on AI risk.
Kniha se ihned po vydání dostala na seznam New York Times bestsellerů a podle všeho jde o nejvýznamnější knihu o AI letošního roku, podle některých (MIT fyzik Max Tegmark) i celého desetiletí.
Diskuzi povedou:
👉 Jakub Halmeš, ML engineer
👉 Jan Votava, filozof
Lze jen pasivně poslouchat, ale budeme rádi za účastníky, kteří se do diskuze zapojí spolu s námi.
Místo: Restaurace Vegalité – v salonku, Brno