2024 Outeur: Malcolm Clapton | [email protected]. Laas verander: 2023-12-17 03:44
Spoiler waarskuwing: Dit is nog lank voor die opstand van die masjiene.
Wanneer Elon Musk die menslike robot Tesla Bot bekendstel, blyk dit dat 'n nuwe wetenskaplike revolusie net om die draai is. 'n Bietjie meer - en kunsmatige intelligensie (KI) sal die mens oortref, en masjiene sal ons by die werk vervang. Professore Gary Marcus en Ernest Davis, albei bekende KI-kundiges, word egter gevra om nie tot sulke gevolgtrekkings te haas nie.
In Artificial Intelligence Reboot verduidelik navorsers hoekom moderne tegnologie ver van ideaal is. Met die toestemming van die uitgewery "Alpina PRO" publiseer Lifehacker 'n uittreksel uit die eerste hoofstuk.
Op hierdie stadium is daar 'n groot gaping - 'n ware kloof - tussen ons ambisie en die realiteit van kunsmatige intelligensie. Hierdie kloof het ontstaan as gevolg van die onopgeloste van drie spesifieke probleme, wat elkeen eerlik hanteer moet word.
Die eerste hiervan is wat ons goedgelowigheid noem, wat gebaseer is op die feit dat ons mense nie regtig geleer het om tussen mense en masjiene te onderskei nie, en dit maak dit maklik om ons te flous. Ons skryf intelligensie toe aan rekenaars omdat ons self ontwikkel het en tussen mense geleef het wat grootliks hul optrede op abstraksies soos idees, oortuigings en begeertes baseer. Die gedrag van masjiene is dikwels oppervlakkig soortgelyk aan die gedrag van mense, daarom ken ons vinnig dieselfde tipe basiese meganismes aan masjiene toe, selfs al het die masjiene dit nie.
Ons kan nie anders as om aan masjiene in kognitiewe terme te dink nie (“My rekenaar dink ek het my lêer uitgevee”), maak nie saak hoe eenvoudig die reëls wat die masjiene eintlik volg nie. Maar die gevolgtrekkings wat hulself regverdig wanneer dit op mense toegepas word, kan heeltemal verkeerd wees wanneer dit op kunsmatige intelligensie-programme toegepas word. Met eerbied vir 'n basiese beginsel van sosiale sielkunde, noem ons dit die fundamentele geldigheidsfout.
Een van die vroegste gevalle van hierdie fout het in die middel-1960's plaasgevind, toe 'n kletsbot met die naam Eliza sommige mense oortuig het dat hy regtig die dinge verstaan wat hulle vir hom vertel. Trouens, Eliza het net sleutelwoorde opgetel, die laaste ding wat die persoon vir haar gesê het herhaal, en in 'n doodloopsituasie het sy haar toevlug tot standaard gesprekstruuks soos "Vertel my van jou kinderjare." As jy jou ma noem, sal sy jou uitvra oor jou familie, alhoewel sy geen idee gehad het wat familie werklik is of hoekom dit vir mense belangrik is nie. Dit was net 'n stel truuks, nie 'n demonstrasie van ware intelligensie nie.
Ten spyte van die feit dat Eliza mense glad nie verstaan het nie, is baie gebruikers geflous deur die gesprekke met haar. Sommige het ure spandeer om frases op die sleutelbord te tik, op hierdie manier met Eliza te praat, maar die kletsbottruuks verkeerd te interpreteer, die papegaai se toespraak vir nuttige, opregte raad of simpatie te misgis.
Joseph Weisenbaum Skepper van Eliza.
Mense wat baie goed geweet het dat hulle met 'n masjien praat, het hierdie feit gou vergeet, net soos teaterliefhebbers hul ongeloof vir 'n rukkie opsy skuif en vergeet dat die aksie wat hulle aanskou geen reg het om werklik genoem te word nie.
Eliza se gespreksgenote het dikwels toestemming geëis vir 'n privaat gesprek met die stelsel en het ná die gesprek, ten spyte van al my verduidelikings, daarop aangedring dat die masjien hulle regtig verstaan.
In ander gevalle kan die fout in die beoordeling van die egtheid fataal wees in die letterlike sin van die woord. In 2016 het een eienaar van 'n outomatiese Tesla-motor soveel staatgemaak op die oënskynlike veiligheid van autopilot-modus dat hy hom (volgens stories) heeltemal verdiep het in die kyk van die Harry Potter-films, en die motor gelaat het om alles op sy eie te doen.
Alles het goed gegaan – totdat dit op 'n stadium sleg geraak het. Nadat hy honderde of selfs duisende kilometers sonder 'n ongeluk gery het, het die motor (in elke sin van die woord) met 'n onverwagse hindernis gebots: 'n wit vragmotor het die snelweg oorgesteek, en Tesla het reg onder die sleepwa ingejaag en die motoreienaar op die plek doodgemaak.. (Die motor het gelyk of die bestuurder verskeie kere gewaarsku het om beheer te neem, maar dit het gelyk of die bestuurder te ontspanne was om vinnig te reageer.)
Die moraal van hierdie verhaal is duidelik: die feit dat 'n toestel vir 'n oomblik of twee (en selfs ses maande) "slim" mag lyk, beteken glad nie dat dit werklik so is of dat dit al die omstandighede waarin 'n persoon sal voldoende reageer.
Die tweede probleem noem ons die illusie van vinnige vooruitgang: die verkeerde vordering in kunsmatige intelligensie, wat verband hou met die oplossing van maklike probleme, vir vordering, wat verband hou met die oplossing van werklik moeilike probleme. Dit het byvoorbeeld gebeur met die IBM Watson-stelsel: sy vordering in die spel Jeopardy! het baie belowend gelyk, maar in werklikheid was die stelsel baie verder van die verstaan van menslike taal as wat die ontwikkelaars verwag het.
Dit is moontlik dat DeepMind se AlphaGo-program dieselfde pad sal volg. Die spel gaan, soos skaak, is 'n geïdealiseerde inligtingspeletjie waar beide spelers die hele bord te eniger tyd kan sien en die gevolge van bewegings met brute krag kan bereken.
In die meeste gevalle, in die werklike lewe, weet niemand iets met volle sekerheid nie; ons data is dikwels onvolledig of verwronge.
Selfs in die eenvoudigste gevalle is daar baie onsekerheid. Wanneer ons besluit om te voet dokter toe te gaan of die moltrein te neem (aangesien die dag bewolk is), weet ons nie presies hoe lank dit gaan neem om vir die moltrein te wag nie, of die trein op die pad vassit, of ons sal soos haring in 'n vat in die koets inprop of ons sal nat word in die reën buite, nie waag om die moltrein te neem nie, en hoe die dokter sal reageer op ons laat.
Ons werk altyd met die inligting wat ons het. Die DeepMind AlphaGo-stelsel speel miljoene kere met homself en het nog nooit onsekerheid hanteer nie, dit weet eenvoudig nie wat 'n gebrek aan inligting of die onvolledigheid en inkonsekwentheid daarvan is nie, om nie eens te praat van die kompleksiteite van menslike interaksie nie.
Daar is nog 'n parameter wat breinspeletjies soos baie anders laat gaan as die regte wêreld, en dit het weer te doen met data. Selfs komplekse speletjies (as die reëls streng genoeg is) kan amper perfek gemodelleer word, sodat die kunsmatige intelligensiestelsels wat dit speel, maklik die groot hoeveelhede data kan versamel wat hulle nodig het om op te lei. Dus, in die geval van Go, kan 'n masjien 'n speletjie met mense simuleer deur bloot teen homself te speel; al het die stelsel teragrepe data nodig, sal dit dit self skep.
Programmeerders kan dus heeltemal skoon simulasiedata met min of geen koste verkry. Inteendeel, in die regte wêreld bestaan daar nie heeltemal skoon data nie, dit is onmoontlik om dit te simuleer (aangesien die reëls van die spel voortdurend verander), en des te moeiliker is dit om baie gigagrepe van relevante data deur proef te versamel en fout.
In werklikheid het ons net 'n paar pogings om verskillende strategieë te toets.
Ons is byvoorbeeld nie in staat om 'n besoek aan die dokter 10 miljoen keer te herhaal nie, en geleidelik die parameters van besluite voor elke besoek aan te pas, om ons gedrag in terme van vervoerkeuse dramaties te verbeter.
As programmeerders 'n robot wil oplei om die bejaardes te help (sê, om siek mense in die bed te help sit), sal elke stukkie data regte geld en regte menslike tyd werd wees; daar is geen manier om al die vereiste data in te samel deur simulasiespeletjies te gebruik nie. Selfs botstoetspoppe kan nie regte mense vervang nie.
Dit is nodig om data in te samel oor regte bejaardes met verskillende eienskappe van seniele bewegings, op verskillende soorte beddens, verskillende soorte slaapklere, verskillende soorte huise, en hier kan jy nie foute maak nie, want om 'n persoon selfs op 'n afstand van verskeie te laat val. sentimeter van die bed af sou 'n ramp wees. In hierdie geval is 'n sekere vordering (tot dusver die mees elementêre) op hierdie gebied op die spel met behulp van die metodes van eng kunsmatige intelligensie. Rekenaarstelsels is ontwikkel wat amper op die vlak speel van die beste menslike spelers in die videospeletjies Dota 2 en Starcraft 2, waar op enige gegewe tydstip slegs 'n deel van die spelwêreld aan die deelnemers gewys word en dus elke speler voor die probleem van gebrek aan inligting - dit word met Clausewitz se ligte hand "die mis van die onbekende" genoem. Die ontwikkelde stelsels bly egter steeds baie eng gefokus en onstabiel in werking. Byvoorbeeld, die AlphaStar-program wat in Starcraft 2 speel, het net een spesifieke ras van 'n wye verskeidenheid karakters geleer, en byna nie een van hierdie ontwikkelings is speelbaar soos enige ander ras nie. En daar is natuurlik geen rede om te glo dat die metodes wat in hierdie programme gebruik word, geskik is om suksesvolle veralgemenings in baie meer komplekse werklike situasies te maak nie. regte lewens. Soos IBM nie een keer nie, maar reeds twee keer ontdek het (eers in skaak, en toe in Jeopardy!), waarborg Sukses in probleme uit 'n geslote wêreld glad nie sukses in 'n oop wêreld nie.
Die derde sirkel van die beskryfde kloof is 'n oorskatting van betroubaarheid. Oor en oor sien ons dat sodra mense met behulp van kunsmatige intelligensie 'n oplossing vind vir een of ander probleem wat vir 'n rukkie sonder mislukkings kan funksioneer, hulle outomaties aanvaar dat met hersiening (en met 'n effens groter hoeveelheid data) alles sal betroubaar werk tyd. Maar dit is nie noodwendig die geval nie.
Ons vat weer karre sonder bestuurders. Dit is relatief maklik om 'n demonstrasie van 'n outonome voertuig te skep wat korrek langs duidelik gemerkte baan op 'n rustige pad sal ry; mense kon dit egter al meer as 'n eeu doen. Dit is egter baie moeiliker om hierdie stelsels in moeilike of onverwagte omstandighede te laat werk.
Soos Missy Cummings, direkteur van die Mense- en Outonomiese Laboratorium by Duke Universiteit (en 'n voormalige vegvlieënier van die Amerikaanse vloot), vir ons in 'n e-pos gesê het, is die vraag nie hoeveel myl 'n bestuurderlose motor sonder 'n ongeluk kan ry nie, maar in die mate waarby hierdie motors by veranderende situasies kan aanpas. Volgens haar Missy Cummings, e-pos aan skrywers op 22 September 2018., moderne semi-outonome voertuie "werk gewoonlik net in 'n baie nou reeks toestande, wat niks sê oor hoe hulle onder minder as ideale toestande kan werk nie."
Om heeltemal betroubaar te lyk op miljoene toetsmyl in Phoenix, beteken nie om goed te presteer tydens die moesson in Bombaai nie.
Hierdie fundamentele verskil tussen hoe outonome voertuie optree in ideale toestande (soos sonnige dae op voorstedelike meerbaanpaaie) en wat hulle in uiterste toestande kan doen, kan maklik 'n kwessie van sukses en mislukking vir 'n hele bedryf word.
Met so min klem op outonome bestuur in uiterste toestande en dat die huidige metodologie nie ontwikkel het in die rigting om te verseker dat die autopilot korrek sal werk in toestande wat net begin om werklik oorweeg te word nie, kan dit binnekort duidelik word dat miljarde dollars is bestee aan metodes om selfbesturende motors te bou wat eenvoudig nie daarin slaag om mensagtige bestuursbetroubaarheid te lewer nie. Dit is moontlik dat om die vlak van tegniese vertroue te bereik wat ons nodig het, benaderings nodig is wat fundamenteel verskil van die huidige.
En motors is net een voorbeeld van baie soortgelyke. In moderne navorsing oor kunsmatige intelligensie is die betroubaarheid daarvan wêreldwyd onderskat. Dit is deels omdat die meeste van die huidige ontwikkelings op hierdie gebied probleme behels wat hoogs foutverdraagsaam is, soos om advertensies aan te beveel of nuwe produkte te bevorder.
Inderdaad, as ons jou vyf soorte produkte aanbeveel, en jy hou net van drie daarvan, sal geen kwaad gebeur nie. Maar in 'n aantal kritieke KI-toepassings vir die toekoms, insluitend bestuurderlose motors, bejaardesorg en gesondheidsorgbeplanning, sal mensagtige betroubaarheid van kritieke belang wees.
Niemand sal’n huisrobot koop wat jou bejaarde oupa net vier uit vyf keer veilig bed toe kan dra nie.
Selfs in daardie take waar moderne kunsmatige intelligensie teoreties in die beste moontlike lig behoort te verskyn, kom ernstige mislukkings gereeld voor, wat soms baie snaaks lyk. 'n Tipiese voorbeeld: rekenaars het in beginsel al redelik goed geleer hoe om te herken wat in hierdie of daardie beeld is (of besig is om te gebeur).
Soms werk hierdie algoritmes uitstekend, maar dikwels produseer hulle heeltemal ongelooflike foute. As jy 'n beeld aan 'n outomatiese stelsel wys wat byskrifte vir foto's van alledaagse tonele genereer, kry jy dikwels 'n antwoord wat merkwaardig ooreenstem met wat 'n mens sou skryf; byvoorbeeld, vir die toneel hieronder, waar 'n groep mense frisbee speel, gee Google se hoogs gepubliseerde subtitel-genereringstelsel dit presies die regte naam.
Maar vyf minute later kan jy maklik 'n absoluut absurde antwoord van dieselfde stelsel kry, soos byvoorbeeld gebeur het met hierdie padteken, waarop iemand plakkers vasgeplak het: die rekenaar genaamd Die skeppers van die stelsel het nie verduidelik hoekom hierdie fout plaasgevind het nie, maar sulke gevalle is nie ongewoon nie. Ons kan aanvaar dat die sisteem in hierdie spesifieke geval die foto geklassifiseer het (dalk in terme van kleur en tekstuur) as soortgelyk aan die ander prente (waaruit dit geleer is) gemerk as "'n yskas gevul met baie kos en drinkgoed." Natuurlik het die rekenaar nie verstaan nie (wat 'n persoon maklik kon verstaan) dat so 'n inskripsie slegs gepas sou wees in die geval van 'n groot reghoekige metaalboks met verskeie (en selfs dan nie alle nie) voorwerpe binne. hierdie toneel is "'n yskas met baie kos en drinkgoed."
Net so identifiseer bestuurderlose motors dikwels korrek wat hulle "sien", maar soms lyk dit of hulle die ooglopende miskyk, soos in die geval van Tesla, wat gereeld teen geparkeerde brandweerwaens of ambulanse op autopilot vasgery het. Blinde kolle soos hierdie kan selfs gevaarliker wees as dit in stelsels geleë is wat kragnetwerke beheer of verantwoordelik is vir die monitering van openbare gesondheid.
Om die gaping tussen ambisie en die realiteite van kunsmatige intelligensie te oorbrug, het ons drie dinge nodig: 'n duidelike bewustheid van die waardes wat in hierdie speletjie op die spel is, 'n duidelike begrip van hoekom moderne AI-stelsels nie hul funksies betroubaar genoeg verrig nie, en, uiteindelik, 'n nuwe ontwikkeling strategie masjien denke.
Aangesien die belange op kunsmatige intelligensie werklik hoog is in terme van werksgeleenthede, veiligheid en die struktuur van die samelewing, is daar 'n dringende behoefte vir ons almal - KI-professionele, verwante beroepe, gewone burgers en politici - om die ware toedrag van sake te verstaan in hierdie veld om te leer om die vlak en aard van die ontwikkeling van vandag se kunsmatige intelligensie krities te assesseer.
Net soos dit belangrik is vir burgers wat in nuus en statistieke belangstel om te verstaan hoe maklik dit is om mense met woorde en syfers te mislei, so is hier 'n toenemend betekenisvolle aspek van begrip sodat ons kan uitvind waar kunsmatige intelligensie is. net advertensies, maar waar is dit werklik; wat hy nou kan doen, en wat hy nie weet hoe nie en miskien nie sal leer nie.
Die belangrikste ding is om te besef dat kunsmatige intelligensie nie magie is nie, maar net 'n stel tegnieke en algoritmes, wat elkeen sy eie sterk- en swakpunte het, is geskik vir sommige take en nie geskik vir ander nie. Een van die hoofredes waarom ons hierdie boek wil skryf, is dat baie van wat ons oor kunsmatige intelligensie lees, vir ons lyk asof dit 'n absolute fantasie is, wat voortspruit uit 'n ongegronde vertroue in die byna magiese krag van kunsmatige intelligensie.
Intussen het hierdie fiksie niks te doen met moderne tegnologiese vermoëns nie. Ongelukkig is en word die bespreking van KI onder die algemene publiek sterk beïnvloed deur spekulasie en oordrywing: die meeste mense het geen idee hoe moeilik dit is om universele kunsmatige intelligensie te skep nie.
Kom ons verduidelik verdere bespreking. Alhoewel die opheldering van die realiteite wat met KI geassosieer word, ernstige kritiek van ons sal verg, is ons self geensins teenstanders van kunsmatige intelligensie nie, ons hou baie van hierdie kant van tegnologiese vooruitgang. Ons het 'n beduidende deel van ons lewe as professionele persone in hierdie veld geleef en ons wil hê dit moet so vinnig as moontlik ontwikkel.
Die Amerikaanse filosoof Hubert Dreyfus het eenkeer 'n boek geskryf oor watter hoogtes, na sy mening, kunsmatige intelligensie nooit kan bereik nie. Dit is nie waaroor hierdie boek gaan nie. Dit fokus deels op wat KI tans nie kan doen nie en hoekom dit belangrik is om dit te verstaan, maar 'n beduidende deel daarvan praat oor wat gedoen kan word om rekenaardenke te verbeter en dit uit te brei na gebiede waar dit nou eers moeilik is om te doen.
Ons wil nie hê dat kunsmatige intelligensie moet verdwyn nie; ons wil hê dit moet boonop radikaal verbeter, sodat ons werklik daarop kan staatmaak en met sy hulp die vele probleme van die mensdom kan oplos. Ons het baie kritiek oor die huidige stand van kunsmatige intelligensie, maar ons kritiek is 'n manifestasie van liefde vir die wetenskap wat ons doen, nie 'n oproep om op te gee en alles te laat vaar nie.
Kortom, ons glo dat kunsmatige intelligensie inderdaad ons wêreld ernstig kan transformeer; maar ons glo ook dat baie van die basiese aannames oor KI moet verander voordat ons oor werklike vordering kan praat. Ons voorgestelde "terugstelling" van kunsmatige intelligensie is glad nie 'n rede om 'n einde aan navorsing te maak nie (alhoewel sommige ons boek in presies hierdie gees kan verstaan), maar eerder 'n diagnose: waar sit ons nou vas en hoe kom ons uit vandag se situasie.
Ons glo dat die beste manier om vorentoe te beweeg kan wees om na binne te kyk, met die struktuur van ons eie gedagtes in die gesig.
Werklik intelligente masjiene hoef nie presiese replikas van mense te wees nie, maar enigiemand wat eerlik na kunsmatige intelligensie kyk, sal sien dat daar nog baie is om by mense te leer, veral van jong kinders, wat in baie opsigte ver beter is as masjiene in hul vermoë om nuwe konsepte te absorbeer en te verstaan.
Mediese wetenskaplikes karakteriseer rekenaars dikwels as "bomenslike" (op een of ander manier) stelsels, maar die menslike brein is steeds verhewe verhewe bo sy silikon-eweknieë in ten minste vyf aspekte: ons kan taal verstaan, ons kan die wêreld verstaan, ons kan buigsaam aanpas by nuwe omstandighede, ons kan vinnig nuwe dinge leer (selfs sonder groot hoeveelhede data) en kan redeneer in die aangesig van onvolledige en selfs teenstrydige inligting. Op al hierdie fronte is moderne kunsmatige intelligensie-stelsels hopeloos agter die mens.
Kunsmatige Intelligensie: Herlaai sal mense interesseer wat moderne tegnologieë wil verstaan en verstaan hoe en wanneer 'n nuwe generasie KI ons lewens kan verbeter.
Aanbeveel:
9 naïewe vrae oor kunsmatige intelligensie
Baie mense weet net oppervlakkig van kunsmatige intelligensie. Sever.AI Hoof Digitale Beampte verduidelik in meer besonderhede en beantwoord gereelde vrae
10 boeke om jou te help om kunsmatige intelligensie te verstaan
"Hyperion" deur Dan Simmons, "The Structure of Reality" deur David Deutsch en ander boeke wat jou sal verdiep in die onderwerp van kunsmatige intelligensie
Kunsmatige Intelligensie: 8 TED-lesings oor superintelligensie
Wat is die gevaar van kunsmatige intelligensie, hoe die superintelligensie ons lewe en die wêreld rondom sal verander - jy sal antwoorde op hierdie en ander vrae vind in 'n seleksie van TED-lesings
Big Brother's World: Wat kunsmatige intelligensie-kameras kan doen
’n Slimkamera is ’n masjien wat nie meer net herken wat jy vir hulle wys nie, maar hierdie kennis kan gebruik om intrige en soms grillerige moontlikhede te bied
Siri mede-skepper praat oor hoe kunsmatige intelligensie ons lewens kan verbeter
Tom Gruber het sy visie van 'n toekoms gedeel waarin kunsmatige intelligensie ons vermoëns sal uitbrei en met ons sal kommunikeer