Egy most megjelent gondolatébresztő könyvben egy filozófus töpreng a mesterséges intelligencia lehetséges buktatóin.
Nick Bostrom: Superintelligence: Paths, Dangers, Strategies
Frank Herbert sokak által ismert Dune című (1960-as években megjelent) könyvében az emberiség már régóta betiltotta a „gondolkodó gépek” létrehozását. Tízezer évvel ezelőtt őseik a Butlerian Jihad nevű mozgalomban valamennyi számítógépet megsemmisítettek, mert az emberek úgy érezték, hogy a gépek irányítják őket. Az emberi számítógépek, az ún. Mentats-ok helyettesítik a törvényen kívül helyezett technológiát. Az Orange Catholic Biblia parancsolatának megszegését – „Ne készíts az emberi elméhez hasonlatos gépet!” – azonnali halállal sújtják.
Vajon a jelen emberiségnek is szankcionálni kellene az intelligens, gondolkodó gépek létrehozását? Ez a nyomasztó kérdés jelenik meg az oxfordi filozófus, Nick Bostrom új, lenyűgöző könyvében, a Superintelligence-ben. Bostrom meggyőzően érvel amellett, hogy a mesterséges intelligenciával bíró gépek ígérete „az emberiség történetének legfontosabb és egyben legijesztőbb kihívása.” Amennyiben az emberiség elbukik e csatában, akkor a rossz szándékú, vagy a közömbös mesterséges intelligencia (AI) el is pusztíthat minket.
A XX. század közepének nagy eseménye, a számítógép megjelenése óta zajlanak a spekulációk arról, hogyan lehetne egy gépet az ember intelligenciájához hasonlatossá fejleszteni. 1950-ben például a számítástechnika úttörője, Alan Turing olyan gép elkészítésére tett javaslatot, amely gyermeki agyat szimulál, és idővel meg lehet tanítani felnőtt szintű intelligenciára. 1965-ben a matematikus I.J. Good azt figyelte meg, hogy a technológia az intelligencia alkalmazásának módjából ered. A szakember szerint abban az esetben, ha egy létrehozott mesterséges intelligencia használja a technológiát az intelligencia további fejlesztésére, az eredmény egy pozitív visszacsatolási hurok lesz (egyfajta intelligencia-robbanás), amely esetében az önfejlesztő intelligencia útján jutunk el a szuperintelligenciáig. A szakember úgy következtetett, hogy „az első ultraintelligens gép létrehozása lesz az utolsó, amelyet az embernek kell feltalálnia, persze abban az esetben, ha a megalkotott gépezet eléggé engedelmes lesz, és megmondja nekünk, hogyan tartsuk befolyásunk alatt. E befolyás fenntartása az a kérdéskör, amelyet Bostrom boncolgat.
A mesterségesintelligencia-kutatók kb. 10%-a hiszi, hogy az első, emberi intelligenciával bíró gép a következő tíz évben megjelenik. Ötven százalék szerint mindezzel várnunk kell az évszázad közepéig, abban azonban szinte mindannyian egyetértenek, hogy meg fog történni a dolog a század végéig. Az új AI-nak minden bizonnyal meglesz a képessége arra, hogy a saját maga algoritmusait elkészítse, így a szuperintelligencia elérése napok, órák vagy percek kérdése lesz. Bostrom szerint az eredmény olyan gép lesz, ami „okosnak mondható, pontosan annyira, amennyire egy ember is okos egy bogárhoz vagy féreghez képest.” Mivel a számítógépek feldolgozása milliószor gyorsabb, mint az emberi agy működése, ahogy a Machine Intelligence Research Institute szakembere, Eliezer Yudkowsky megjegyzi, így bármely mesterséges intelligenciával felruházott gép az emberi agy egyéves gondolkodását 31 másodperc alatt teljesítené.
Bostrom számos útvonalat vázol fel a szuperintelligencia elérése felé. Röviden szólva, ebből kettő irányzat az emberi intelligencia fejlesztését igényli. Az első útvonal szerint az embriókból származó őssejtekből petesejtet és hímivarsejtet hoznak létre, azokat ismételten kombinálják, hogy erőteljes, egymást követő generációkat hozzanak létre, és így tovább. A fő vezérelv az, hogy átlagosan 300-as IQ-val rendelkező emberekből hozzanak létre a legtöbbet. A másik megközelítéshez olyan agy/számítógép interfészre van szükség, amelynek segítségével az emberi intelligenciát mesterségessel feljavítjuk. Ami az olyan módszereket illeti, mint az eugenika (fajnemesítés) vagy cyborgization, Bostrom kizárja ezeket, mivel szerinte túl korlátozott lehetőségek, bár azt elismeri, hogy az átlagos népesség intelligensebbé tétele – bármilyen módon elérve azt – segítheti azt a folyamatot, ami a szuperintelligens gépek megjelenéséhez vezet.
Ami a cyborgization elutasítását illeti, Bostrom tán túl elhamarkodott. Bostrom-nak igaza van abban, hogy az olyan kezdetleges interfészek, amelyeket manapság pl. a Parkinson-kór kezelésére alkalmaznak, komoly egészségügyi kockázatot hordoznak, ez azonban nem biztos, hogy mindig így lesz. A szakember azt is vitatja, hogy még ha az interfészek biztonságosak és megbízhatóak lennének is, a szuperintelligencia fejlesztését így is visszavetnék az emberi agy feldolgozási sebességének korlátai. Lehet, de az is lehet, hogy nem. Az évszázad későbbi részében talán lehetséges lesz olyan nanobot-ok bevetése, amelyek az emberi agyat a mesterséges intelligencia hatalmas potenciáljával összekötik. Egy ilyen forgatókönyv esetén az adatfeldolgozás java részét az agyhoz csatlakoztatott gépek végeznék el, az emberi agy pedig a cyborg-ot uraló érték- és célközponttá válna.
Bostrom szerint két olyan útja van a szuperintelligencia elérésének, amely mindenképpen beválik: a teljes agyat érintő emuláció, illetve a gépi AI.
A teljes agyat érintő emuláció magában foglalja az emberi agy elemekre bontását a szinaptikus szintekig, majd egy számítógépben a digitális modellezését a teljes háromdimenziós neuronhálózatnak, beleértve a neuronok közti billiós (milliárd utáni nagyságrend) kapcsolódásokat; mindezt azzal a céllal, hogy az eredeti intellektust digitálisan reprodukálni lehessen a memóriával és a sértetlen személyiséggel együtt. Mellesleg Bostrom megemlíti a disztópikus lehetőségét annak, hogy a leigázott virtuális agyi emulációk milliárdjai gazdaságilag versenyképesek lesznek a fizikai valóságban élő emberi agyakkal. Bostrom még alaposabban vizsgál meg egy másik megközelítést, amelyben az emuláció egy megfelelően nagy teljesítményű számítógép memóriájába töltődik be, az új digitális értelem pedig elkezd rekurzívan a szuperintelligencia irányába haladni.
A másik (a gépi AI fejlesztését felvető) módszer szerint a kutatók a szoftverek és a hardverek előnyeinek kombinálásával direkt módon hozhatnak létre szuperintelligens gépet. Az egyik javaslat egy ún. „magintelligencia” létrehozása (ez hasonlatos a Turing-féle gyermeki agyat szimuláló gépével), amely eléggé ismerné önnön működését ahhoz, hogy saját algoritmusait és számítástechnikai struktúráit hozza létre, tudatát felhasználva pedig a szuperintelligencia elérésére is képes lenne. Egy szuperintelligens AI-val bíró gép képes lenne a tudomány rejtélyeit felfedni, egyfajta „bőségszaruként” bármilyen területen megszüntetni a hiányt a Földön, lehetővé tenni a világűr felfedezését, és végül az öregedést és a halált is eltörölni. De még ha ezeket mind meg is tehetik, Bostrom attól tart, hogy e gépek minket, embereket sokkal nagyobb valószínűséggel tartanak majd zavaró tényezőknek, akiket el kell söpörni, amint a gépek saját céljainak, értékeinek útjában állunk. Ha a gépek nem is közvetlenül támadnak az emberre, a Földet akkor is élhetetlenné tehetik – pl. telerakhatják napelemmel vagy nukleáris erőművekkel.
Bostrom felhívja a figyelmet, hogy fontos tisztában lenni azzal, miként kontrollálhatja az ember az AI-t, mielőtt használatba venné, mivel amint működésbe hoztuk, már nehéz változtatni a céljain. Ebben az esetben csak egyetlen esélyünk lesz arra, hogy az AI-t a helyes értékekkel és célokkal ruházzuk fel. Szélesebb értelembe véve Bostrom szerint két módja van annak, hogy a fejlesztők az emberiséget a rossz szándékú szuperintelligenciától megvédhessék: a gépek képességeinek szabályozási módszerei és a megfelelő motiváció kiválasztása.
Az első megközelítés példája az lenne, hogy az AI életterét korlátozzuk egyfajta „fekete dobozra”, amelynek nincsen közvetlen kapcsolata a külső világgal. A kezelői úgy bánnának vele, mint egy orákulummal, kérdéseket tennének fel neki, pl. azt, hogyan léphetjük túl a fénysebességet, vagy hogyan gyógyíthatjuk meg a rákot. Bostrom szerint azonban az AI egy idő után mégiscsak kiszabadulna e dobozból, hiszen az emberek nem lennének képesek biztonságos zárt rendszert működtetni, főleg akkor nem, ha egy szuperintelligens cselszövővel és rábeszélővel kerülnek szembe.
Alternatív megoldásként a fejlesztők megpróbálhatják rögzíteni az AI-masina céljait működésbe hozása előtt, felállítva egy olyan rendszert, amely e gép céljait, értékeit meghatározza. Hasonlóképpen, az emulációs technikával megalkotott szuperintelligencia feltehetőleg az eredeti intellektus céljait, értékeit tartalmazza. (Fontos bölcsen megválasztani, hogy mely emberi agyat bontunk elemeire, és építünk fel újra digitálisan). Ahogy Bostrom megjegyzi, rosszul is elsülhet, ha előre próbáljuk megadni a majdani gép céljait. Ha például a fejlesztők úgy hoznak létre egy AI-gépet, hogy az maximalizálja az emberi örömöt, a masina mindezt úgy is értelmezheti, hogy az emberi dopamin hormon óriási mennyiségét hozza létre, mégpedig boldogságot okozó kémiai szerek folyamatos kibocsátásával.
Ahelyett, hogy egy végső célt határozunk meg, Bostrom azt sugallja, hogy a fejlesztők talán inkább utasítsák az AI-t arra, hogy „elérje mindazt, amit szerettünk volna, ha elég hosszan és komolyan gondolkodtunk volna róla.” Ez Yudkowsky ötletének kezdetleges megközelítése – az ötlet neve koherens extrapolált akarat (coherent extrapolated volition) – amely során a magintelligencia próbálja kitalálni mindazt, valójában mit akarhatott az emberiség, mint egész. Bostrom szerint valami ilyesmire van szükség AI téren, hogy emberbarát mesterséges intelligenciát alkossunk meg.
Mindeközben Bostrom úgy véli, biztonságosabb, ha a mesterségesintelligencia-kutatás csak lassú léptekben halad előre. „A szuperintelligencia olyan kihívás, amire ma még nem vagyunk készen, és egy ideig nem is leszünk.” A szakember különösen amiatt aggódik, hogy az emberek figyelmen kívül hagyják majd a szuperintelligencia megoldásainak létező kockázatait, annak gyors fejlődését támogatják majd azért, hogy a „bőség gazdaságát” (cornucopian economy) vagy a „halhatatlan életet” elérjék. A szakember vitatja, hogy egy világszintű AI kutatási együttműködés vajon visszatartana-e egy-két úttörő nemzetet vagy csoportosulást a versenyelőny megszerzésétől. Bostrom a közjó elvének őrzésére buzdítja a kutatókat és támogatóikat: „A szuperintelligenciát kizárólag az egész emberiség hasznára szabad fejleszteni, a széles körben tisztelt erkölcsi, emberi értékek figyelembe vételével.” Az elgondolás nagyon szép, azonban a jelenlegi nemzetközi viszonyokat ismerve az elv univerzális elfogadtatása nem valószínű.
A Dune c. sorozatban az emberiség képes volt arra, hogy az elnyomó, öntudatra ébredt gépeket legyőzze. Bostrom-nak azonban nagyon is igaza van abban, hogyha egyetlen szuperintelligens AI gép is megjelenik, akkor azt sosem lehet majd kikapcsolni, vagy céljait módosítani. A szakember kiemeli, hogy a mesterséges intelligencia robbanását követő időszakban az emberiség túlélése „korunk legjelentősebb feladata.”
(Piackutatás blog)
mrZ (törölt) 2014.10.20. 10:33:49
Mondjuk ha olyan okosnak képzelném magam hogy gondolkodásban felette állok mindenkin, biztos hogy én is könyvet írnék.
dr. pretender 2014.10.20. 20:28:56
Forecast Research - www.forecast.hu · http://piackutatas.blog.hu 2014.10.21. 08:53:12