Mohou se počítače učit zdravému rozumu?

Před několika lety měl počítačový vědec jménem Yejin Choi prezentaci na konferenci umělé inteligence v New Orleans. Na plátno promítla snímek ze zpravodajského vysílání, kde se před titulkem „CHEESEBURGER STABING objevily dvě kotvy.“ Choi vysvětlil, že pro lidské bytosti je snadné rozeznat obrysy příběhu pouze z těchto dvou slov. Píchl někdo cheeseburger? Asi ne. Byl cheeseburger použit k bodnutí člověka? Také nepravděpodobné. Píchl cheeseburger cheeseburger? Nemožné. Jediný pravděpodobný scénář byl, že někdo někoho ubodal přes cheeseburger. Počítače, řekl Choi, jsou tímto problémem zmatené. Chybí jim zdravý rozum, aby odmítli možnost trestné činnosti související s jídlem a jídlem.

U určitých druhů úkolů – hraní šachů, odhalování nádorů – může umělá inteligence konkurovat lidskému myšlení nebo ho předčí. Ale širší svět představuje nekonečné nepředvídané okolnosti a tam A.I. často klopýtá. Výzkumníci hovoří o „rohových případech“, které leží na okraji pravděpodobného nebo očekávaného; v takových situacích se lidská mysl může spolehnout na zdravý rozum, aby je provedl, ale A.I. systémy, které jsou závislé na předepsaných pravidlech nebo naučených asociacích, často selhávají.

Z definice je zdravý rozum něco, co má každý; nezní to jako velký problém. Ale představte si, že žijete bez toho, a ono se to dostane do jasnějšího zaměření. Předpokládejme, že jste robot na návštěvě karnevalu a stojíte před zrcadlem v zábavním domě; bez zdravého rozumu by vás mohlo zajímat, zda se vaše tělo náhle změnilo. Cestou domů vidíte, že vybuchl požární hydrant a zasypal silnici; nemůžete určit, zda je bezpečné projíždět sprejem. Zaparkujete před lékárnou a muž na chodníku křičí o pomoc a silně krvácí. Smíte si vzít obvazy z obchodu, aniž byste čekali ve frontě na zaplacení? Doma je zpráva – něco o bodnutí cheeseburgerem. Jako lidská bytost můžete k interpretaci těchto situací čerpat z obrovského rezervoáru implicitních znalostí. Děláte to pořád, protože život je v koutě. AI se pravděpodobně zaseknou.

Oren Etzioni, C.E.O. z Allenova institutu pro umělou inteligenci v Seattlu mi řekl, že zdravý rozum je „temná hmota“ A.I. „Tolik formuje to, co děláme a co musíme dělat, a přesto je to nevyslovitelné,“ dodal. Allenův institut na tématu spolupracuje s agenturou Defence Advanced Research Projects Agency (DARPA), která v roce 2019 zahájila čtyřleté úsilí za sedmdesát milionů dolarů s názvem Machine Common Sense. Pokud by počítačoví vědci mohli dát jejich A.I. systémy zdravý rozum, vyřešilo by se mnoho ožehavých problémů. Jak bylo uvedeno v jednom přehledovém článku, A.I. Při pohledu na kousek dřeva vykukující nad stolem by bylo jasné, že to byla pravděpodobně část židle, spíše než náhodné prkno. Systém jazykového překladu by mohl rozmotat nejednoznačnosti a dvojí významy. Robot na úklid domu by pochopil, že kočka by se neměla vyhazovat ani dávat do šuplíku. Takové systémy by byly schopny fungovat ve světě, protože mají takové znalosti, které považujeme za samozřejmé.

[Podpořte oceňovanou žurnalistiku The New Yorker. Přihlaste se k odběru ještě dnes »]

V devadesátých letech byly otázky o A.I. a bezpečnost pomohla Etzionimu začít studovat zdravý rozum. V roce 1994 se stal spoluautorem článku pokoušejícího se formalizovat „první zákon robotiky“ – fiktivní pravidlo ve sci-fi románech Isaaca Asimova, které uvádí, že „robot nesmí zranit lidskou bytost nebo nečinností dovolit lidská bytost, která má přijít k újmě." Zjistil, že problém je v tom, že počítače nemají ani ponětí o škodě. Tento druh porozumění by vyžadoval široké a základní porozumění potřebám, hodnotám a prioritám člověka; bez něj jsou chyby téměř nevyhnutelné. V roce 2003 si filozof Nick Bostrom představil A.I. program, jehož úkolem je maximalizovat výrobu kancelářských sponek; uvědomuje si, že lidé by jej mohli vypnout, a tak se s nimi zbaví, aby dokončil své poslání.

Bostromova kancelářská sponka A.I. postrádá morální zdravý rozum – mohl by si říci, že chaotické, neoříznuté dokumenty jsou formou škody. Výzvou je ale také vnímavý zdravý rozum. V posledních letech začali počítačoví vědci katalogizovat příklady „nepříznivých“ vstupů – malých změn ve světě, které matou počítače, které se v něm snaží navigovat. V jedné studii strategické umístění několika malých nálepek na značku stop způsobilo, že systém počítačového vidění ji viděl jako značku omezující rychlost. V jiné studii, důmyslná změna vzoru na 3D-tištěné želvě vytvořila A.I. počítačový program vidět to jako pušku. A.I. se zdravým rozumem by se nedal tak snadno zmást – věděl by, že pušky nemají čtyři nohy a nábojnici.

Choi, který vyučuje na Washingtonské univerzitě a spolupracuje s Allen Institutem, mi řekl, že v sedmdesátých a osmdesátých letech A.I. výzkumníci si mysleli, že mají blízko k programování zdravého rozumu do počítačů. "Ale pak si uvědomili, 'Ach, to je příliš těžké'," řekla; místo toho se obrátili na „snazší“ problémy, jako je rozpoznávání objektů a překlad jazyka. Dnes ten obrázek vypadá jinak. Mnoho A.I. systémy, jako jsou auta bez řidiče, budou možná brzy pravidelně fungovat vedle nás v reálném světě; tím je potřeba umělého zdravého rozumu naléhavější. A zdravý rozum může být také dosažitelnější. Počítače se stále lépe učí samy o sobě a výzkumníci se učí dodávat jim správné druhy dat. A.I. možná brzy pokryje více rohů.

Jak lidé získávají zdravý rozum? Krátká odpověď je, že jsme mnohostranní studenti. Zkoušíme věci a pozorujeme výsledky, čteme knihy a posloucháme instrukce, tiše vstřebáváme a uvažujme sami. Padáme na hubu a sledujeme, jak ostatní dělají chyby. A.I. systémy naproti tomu nejsou tak dobře zaoblené. Mají tendenci sledovat jednu cestu a všechny ostatní vylučují.

První výzkumníci se řídili cestou explicitních instrukcí. V roce 1984 začal počítačový vědec jménem Doug Lenat budovat Cyc, jakousi encyklopedii zdravého rozumu založenou na axiomech neboli pravidlech, která vysvětlují, jak svět funguje. Jeden axiom by mohl tvrdit, že vlastnit něco znamená vlastnit jeho části; jiný by mohl popisovat, jak tvrdé věci mohou poškodit měkké věci; třetina by mohla vysvětlit, že maso je měkčí než kov. Zkombinujte axiomy a dojdete k rozumným závěrům: pokud nárazník vašeho auta bez řidiče narazí někomu do nohy, nesete odpovědnost za zranění vy. "V podstatě představuje a zdůvodňuje v reálném čase komplikované vnořené modální výrazy," řekl mi Lenat. Cycorp, společnost, která vlastní Cyc, stále funguje a stovky logiků strávily desetiletí zadáváním desítek milionů axiomů do systému; produkty firmy jsou zahaleny tajemstvím, ale Stephen DeAngelis, C.E.O. ze společnosti Enterra Solutions, která radí výrobním a maloobchodním společnostem, mi řekl, že její software může být výkonný. Nabídl kulinářský příklad: Cyc, řekl, má dostatek rozumných znalostí o „profilech chutí“ různých druhů ovoce a zeleniny, aby usoudil, že i když je rajče ovoce, nemělo by jít do ovocného salátu.

Akademici mají tendenci vnímat Cycův přístup jako zastaralý a náročný na práci; pochybují, že nuance zdravého rozumu lze zachytit pomocí axiomů. Místo toho se zaměřují na strojové učení, technologii za Siri, Alexa, Google Translate a další služby, které fungují na principu detekce vzorců v obrovském množství dat. Systémy strojového učení místo čtení návodu analyzují knihovnu. V roce 2020 odhalila výzkumná laboratoř OpenAI algoritmus strojového učení nazvaný GPT-3; podíval se na text z World Wide Web a objevil lingvistické vzorce, které mu umožnily vytvořit věrohodně lidské písmo od nuly. Mimikry GPT-3 jsou v některých ohledech ohromující, ale v jiných jsou ohromující. Systém může stále produkovat podivná prohlášení: například: „K skoku z Havaje na sedmnáct trvá dvě duhy.“ Kdyby měl GPT-3 zdravý rozum, věděl by, že duhy nejsou jednotky času a že sedmnáctka není místo.

Tým Choi se snaží používat jazykové modely jako GPT-3 jako odrazový můstek ke zdravému rozumu. V jedné linii výzkumu požádali GPT-3, aby vygeneroval miliony věrohodných výroků se zdravým rozumem popisujících příčiny, následky a záměry – například „Než Lindsay dostane nabídku práce, musí se Lindsay ucházet.“ Poté požádali druhý systém strojového učení, aby analyzoval filtrovanou sadu těchto prohlášení, s ohledem na vyplnění doplňujících otázek. („Alex nechává Chrise čekat. Alex je viděn jako...“) Lidští hodnotitelé zjistili, že dokončené věty vytvořené systémem byly v osmdesáti osmi procentech běžného rozumu – což je výrazné zlepšení oproti GPT-3, které bylo pouze sedmdesát. - tři procenta selského rozumu.

Choiina laboratoř udělala něco podobného s krátkými videi. Ona a její spolupracovníci nejprve vytvořili databázi milionů klipů s titulky a poté požádali systém strojového učení, aby je analyzoval. Mezitím online crowdworkeři – internetoví uživatelé, kteří provádějí úkoly za úplatu – skládali otázky s možností výběru o statických snímcích pořízených z druhé sady klipů, které A.I. nikdy neviděl, a otázky s více možnostmi, které žádají zdůvodnění odpovědi. Typický snímek, převzatý z filmu „Swingers“, ukazuje servírku, která roznáší palačinky třem mužům v jídelně, přičemž jeden z mužů ukazuje na druhého. V odpovědi na otázku „Proč [osoba4] ukazuje na [osobu1]?“ systém uvedl, že ukazovák „říkal [osobě3], že [osoba1] objednala palačinky. Na žádost o vysvětlení své odpovědi program řekl, že „[osoba3] dodává jídlo na stůl a možná neví, čí objednávka je čí“. A.I. odpovídali na otázky zdravým rozumem v sedmdesáti dvou procentech času, ve srovnání s osmdesáti šesti procenty u lidí. Takové systémy jsou působivé – zdá se, že mají dostatek zdravého rozumu k pochopení každodenních situací z hlediska fyziky, příčiny a následku a dokonce i psychologie. Jako by věděli, že lidé jedí palačinky v jídelnách, že každý strávník má jiné pořadí a že ukazování je způsob, jak předat informace.

Populární články