eBook

Problém UI, a jeho riešenia

Nachádzame sa v kľúčovom okamihu histórie Zeme. Ako balvan usadený na vrcholku hory, stojíme v nestabilnom bode. Nemôžeme na tomto mieste zostať stáť: UI príde, ak bude veda napredovať. Čoskoro sa zosypeme po niektorej zo strán hory na nové stabilné miesto.

Jedným smerom sa nachádza vyhynutie ľudstva. („Vyhynúť? Nehýb sa.“) Iným stabilným miestom môže byť stabilná globálna totalita, ktorá zastaví vedecký pokrok, aj keď to vyzerá nepravdepodobne.

A čo umelá inteligencia? UI vedie k explózii inteligencie a, pretože nevieme, ako dať UI dobré ciele, explózia inteligencie bude za bežných okolnosti optimalizovať svet k náhodným katastrofálnym cieľom. Na druhej strane, kontrolovaná explózia inteligencie môže optimalizovať svet k lepšiemu. (Viac o tejto možnosti v nasledujúcej kapitole.)

Ja osobne sa celou svojou váhou opieram v smere k tomuto poslednému údoliu: kontrolovanej explózii inteligencie.

Na prchavý okamih histórie sme schopní pochopiť (akokoľvek hmlisto) našu aktuálnu situáciu, a ovplyvniť, na ktorú stranu hory pravdepodobne dopadneme. Čo teda urobíme?

Diferenciálny rozvoj intelektu

To, čo potrebujeme, je diferenciálny rozvoj intelektu:

Diferenciálny rozvoj intelektu spočíva v uprednostnení rozvoja intelektu redukujúceho riziko pred rozvojom intelektu zvyšujúceho riziko. Plán diferenciálneho rozvoja intelektu konkrétne pre oblasť rizík UI by odporučil, aby náš pokrok vo filozofických, vedeckých a technologických problémoch bezpečnosti UI predbehol náš pokrok v problémoch schopností UI, aby sme vyvinuli bezpečnú nadľudskú UI skôr než vyvinieme náhodné nadľudské UI. Naša prvá nadľudská UI musí byť bezpečná nadľudská UI, lebo druhú šancu možno nedostaneme.

Veľmi zjednodušene povedané, výskum bezpečnosti UI sa preteká s výskumom schopností UI. Práve teraz výskum schopností vyhráva, a v skutočnosti náskok stále zvyšuje. Ľudstvo viac tlačí na výskum schopností UI než na výskum bezpečnosti UI.

Ak výskum schopností UI vyhrá tento pretek, ľudstvo prehralo. Ak výskum bezpečnosti UI vyhrá tento pretek, ľudstvo vyhralo.

Mnoho ľudí vie, ako vyzerá tlačiť na výskum schopností UI. To je väčšina prác, ktoré o UI čítate. Ale ako vyzerá tlačiť na výskum bezpečnosti UI?

Tento článok obsahuje dlhý zoznam kategórií problémov vo výskume bezpečnosti UI, ale teraz dám iba pár príkladov. (Preskočte tento zoznam, ak sa chcete vyhnúť strašne technickému žargónu.)

  • Keď agent zvažuje radikálnu zmenu svojho vlastného rozhodovacieho mechanizmu, ako môže zabezpečiť, že to zvýši jeho očakávaný úžitok? Súčasné teórie rozhodovania si v tomto bode nevedia poradiť v Löbovou vetou, takže potrebujeme novú „reflektívne konzistentnú“ teóriu rozhodovania.
  • Agentova funkcia úžitku môže odkazovať na stavy jeho ontológie alebo entity v nej. Ale ako poznamenáva Peter de Blanc: „Ak agent môže aktualizovať alebo nahradiť svoju ontológiu, čelí kríze: agentova pôvodná [funkcia úžitku] nemusí byť dobre definovaná v jeho novej ontológii.“ Potrebujeme zistiť, ako zabezpečiť, že keď dáme UI dobré ciele, tieto ciele sa „nepoškodia“, keď UI aktualizuje svoju ontológiu.
  • Ako môžeme zostrojiť potrebnú funkciu úžitku z toho, čo ľudia „chcú“? Súčasné metódy získavania preferencií v UI sú neprimerané; potrebujeme novšie, silnejšie a univerzálnejšie algoritmy na získavanie preferencií. Alebo možno musíme umožniť skutočným ľuďom uvažovať o svojich vlastných preferenciách veľmi dlhý čas, dokiaľ nedosiahnu určitú „reflexívnu rovnováhu“ svojich preferencií. Táto cesta môže zahŕňať emuláciu celého mozgu – ale ako to urobiť tak, aby sme predtým neumožnili vytvorenie nebezpečnej, na mozgu založenej, sebazdokonaľujúcej sa UI?
  • Možno nevyriešime problémy teórie hodnôt pred vytvorením UI. Možno namiesto toho potrebujeme teóriu, ako zvládať túto normatívnu neistotu, napríklad niečo ako Bostromov navrhovaný Model parlamentu.

Okrem týchto „technických“ výskumných problémov by sme mali zvážiť diferenciálny rozvoj intelektu pri palete „strategických“ výskumných problémov. Ktoré technológie by malo ľudstvo sponzorovať viac a ktoré menej? Čo môžeme urobiť na zníženie rizika pretekov v zbrojení UI? Zníži riziko UI, ak podporíme celosvetovévýcviky racionality alebo výcviky dobra? Ktoré zásahy by mali dostať prednosť?

Akcia, dnes

Jednou časťou riešenia problému rizika UI je teda diferenciálny rozvoj intelektu. Ďalšou časťou riešenia je konať na základe odporučení najlepšieho strategického výskumu, aký vieme robiť. Napríklad nasledujúce činnosti pravdepodobne znižujú riziko UI:

  • Darovať organizáciám, ktoré robia horeuvedené druhy technického a strategického výskumu bezpečnosti UI – organizáciám ako Inštitút Singularity a Inštitút budúcnosti ľudstva.
  • Presvedčiť ľudí, aby brali bezpečnosť UI vážne, najmä výskumníkov UI, filantropov, bystrých mladých ľudí, a vplyvných ľudí.

Stránka Ako si kúpiť zníženie rizika UI poskytuje viac podrobností o konkrétnych projektoch, ktoré možno uskutočniť na zníženie rizika UI, s odhadom nákladov pre jednotlivé projekty.

Príležitosti

Zatiaľ som hovoril iba o rizikách UI, ale je dôležité nestratiť zo zreteľa ani príležitosti UI:

Liečbu rakoviny alebo ekonomickú stabilitu si zvyčajne nespájame s umelou inteligenciou, ale liečba rakoviny je v konečnom dôsledku otázkou dostatočnej bystrosti na to, aby sme zistili, ako ju vyliečiť; a dosiahnutie ekonomickej stabilit je v konečnom dôsledku otázkou dostatočnej bystrosti na to, aby sme zistili, ako ju dosiahnuť. Akékoľvek máme ciele, máme ciele, ktoré možno dosiahnuť do vyššej miery použitím dostatočne vyspelej inteligencie.

V poslednej kapitole sa pokúsim vysvetliť, aké dobré veci môžu byť, ak sa rozhodneme konať a urobíme UI správne.

Áno, mali by sme byť triezvi ohľadom skutočnosti, že nič vo fyzike nezakazuje veľmi zlé výsledky. Ale mali by sme byť triezvi aj ohľadom skutočnosti, že nič vo fyzike nezakazuje výsledky s väčšou radosťou a harmóniou než si naše primitívne opičie mozgy dokážu predstaviť.