Nini akili ya bandia inaweza kweli kufanya leo
Nini akili ya bandia inaweza kweli kufanya leo
Anonim

Tahadhari ya waharibifu: Bado ni muda mrefu kabla ya ghasia za mashine.

Nini akili ya bandia inaweza kweli kufanya leo
Nini akili ya bandia inaweza kweli kufanya leo

Wakati Elon Musk anaanzisha roboti ya humanoid Tesla Bot, inaonekana kwamba mapinduzi mapya ya kisayansi yamekaribia. Zaidi kidogo - na akili ya bandia (AI) itapita mwanadamu, na mashine zitachukua nafasi yetu kazini. Walakini, Maprofesa Gary Marcus na Ernest Davis, wote wataalam mashuhuri wa AI, wanaombwa wasikimbilie hitimisho kama hilo.

Katika Urejeshaji wa Ushauri wa Artificial, watafiti wanaelezea kwa nini teknolojia ya kisasa sio bora. Kwa idhini ya nyumba ya uchapishaji "Alpina PRO" Lifehacker huchapisha dondoo kutoka kwa sura ya kwanza.

Katika hatua hii, kuna pengo kubwa - pengo halisi - kati ya tamaa yetu na ukweli wa akili ya bandia. Pengo hili limetokea kwa sababu ya kutotatuliwa kwa shida tatu maalum, ambazo kila moja lazima ishughulikiwe kwa uaminifu.

Jambo la kwanza kati ya hayo ni kile tunachoita usadikisho, ambao unatokana na ukweli kwamba sisi wanadamu hatujajifunza kutofautisha kati ya wanadamu na mashine, na hii inafanya iwe rahisi kutudanganya. Tunahusisha akili na kompyuta kwa sababu sisi wenyewe tumebadilika na kuishi miongoni mwa watu ambao kwa kiasi kikubwa huegemeza vitendo vyao kwenye vifupisho kama vile mawazo, imani na matamanio. Tabia ya mashine mara nyingi inafanana kijuujuu na tabia ya wanadamu, kwa hivyo tunazipa mashine aina sawa za mifumo ya kimsingi, hata ikiwa mashine hazina.

Hatuwezi kujizuia kufikiria mashine katika maneno ya utambuzi (“Kompyuta yangu inadhani nilifuta faili yangu”), haijalishi ni rahisi kiasi gani kanuni ambazo mashine hufuata. Lakini hitimisho ambalo linajihalalisha linapotumiwa kwa wanadamu linaweza kuwa si sahihi kabisa linapotumiwa kwa programu za akili za bandia. Kwa kuheshimu kanuni ya msingi ya saikolojia ya kijamii, tunaita hili kosa la msingi la uhalali.

Mojawapo ya matukio ya awali ya hitilafu hii ilitokea katikati ya miaka ya 1960, wakati gumzo aitwaye Eliza aliposhawishi baadhi ya watu kwamba alielewa mambo waliyokuwa wakimwambia. Kwa kweli, Eliza alichukua tu maneno muhimu, akarudia jambo la mwisho ambalo mtu huyo alimwambia, na katika hali ya kufa aliamua mbinu za kawaida za mazungumzo kama "Niambie kuhusu utoto wako." Ikiwa ungemtaja mama yako, angekuuliza kuhusu familia yako, ingawa hakujua familia ni nini hasa au kwa nini ni muhimu kwa watu. Ilikuwa tu seti ya hila, sio onyesho la akili ya kweli.

Licha ya ukweli kwamba Eliza hakuelewa watu hata kidogo, watumiaji wengi walidanganywa na mazungumzo naye. Wengine walitumia saa nyingi kuandika misemo kwenye kibodi, wakizungumza kwa njia hii na Eliza, lakini wakitafsiri vibaya hila za gumzo, wakikosea hotuba ya kasuku kwa ushauri wa kusaidia, wa dhati au huruma.

Joseph Weisenbaum Muumba wa Eliza.

Watu ambao walijua vizuri kwamba walikuwa wakizungumza na mashine walisahau ukweli huu, kama vile wapenzi wa sinema waliweka kando kutokuamini kwao kwa muda na kusahau kwamba kitendo wanachoshuhudia hakina haki ya kuitwa halisi.

Waingiliaji wa Eliza mara nyingi walidai ruhusa ya mazungumzo ya kibinafsi na mfumo na baada ya mazungumzo walisisitiza, licha ya maelezo yangu yote, kwamba mashine hiyo iliwaelewa.

Katika hali nyingine, kosa katika kutathmini uhalisi linaweza kuwa mbaya katika maana halisi ya neno. Mnamo mwaka wa 2016, mmiliki mmoja wa gari la automatiska la Tesla alitegemea sana juu ya usalama unaoonekana wa mode ya autopilot kwamba (kulingana na hadithi) alijiingiza kabisa katika kutazama filamu za Harry Potter, akiacha gari kufanya kila kitu peke yake.

Kila kitu kilikwenda vizuri - hadi wakati fulani ikawa mbaya. Baada ya kuendesha mamia au hata maelfu ya maili bila ajali, gari liligongana (kwa kila maana ya neno) na kizuizi kisichotarajiwa: lori nyeupe lilivuka barabara kuu, na Tesla akakimbilia chini ya trela, na kumuua mmiliki wa gari hapo hapo.. (Gari lilionekana kumuonya dereva mara kadhaa kudhibiti, lakini dereva alionekana kuwa mtulivu sana kujibu haraka.)

Maadili ya hadithi hii ni wazi: ukweli kwamba kifaa kinaweza kuonekana "smart" kwa muda mfupi au mbili (na hata miezi sita) haimaanishi kabisa kwamba ni kweli au kwamba inaweza kukabiliana na hali zote ambazo mtu angejibu vya kutosha.

Tatizo la pili tunaliita udanganyifu wa maendeleo ya haraka: kupotosha maendeleo katika akili ya bandia, inayohusishwa na kutatua matatizo rahisi, kwa maendeleo, yanayohusiana na kutatua matatizo magumu kweli. Hii, kwa mfano, ilitokea kwa mfumo wa IBM Watson: maendeleo yake katika mchezo wa Jeopardy! ilionekana kuwa ya kuahidi sana, lakini kwa kweli mfumo huo uligeuka kuwa mbali zaidi na kuelewa lugha ya binadamu kuliko watengenezaji walivyotarajia.

Inawezekana kwamba mpango wa AlphaGo wa DeepMind utafuata njia sawa. Mchezo wa kwenda, kama vile chess, ni mchezo wa taarifa ulioboreshwa ambapo wachezaji wote wawili wanaweza kuona ubao mzima wakati wowote na kukokotoa matokeo ya miondoko kwa kutumia nguvu.

Katika hali nyingi, katika maisha halisi, hakuna mtu anayejua chochote kwa uhakika kamili; data zetu mara nyingi si kamilifu au potofu.

Hata katika kesi rahisi, kuna mengi ya kutokuwa na uhakika. Tunapoamua kwenda kwa daktari kwa miguu au kwa treni ya chini ya ardhi (kwa kuwa mchana kuna mawingu), hatujui itachukua muda gani hasa kusubiri treni ya chini ya ardhi, ikiwa treni itakwama barabarani, iwe tutasongamana ndani ya gari kama sill kwenye pipa au tutapata mvua kwenye mvua nje, bila kuthubutu kupanda treni ya chini ya ardhi, na jinsi daktari atakavyoitikia kuchelewa kwetu.

Tunafanya kazi kila wakati na habari tuliyo nayo. Kucheza Go na yenyewe mara mamilioni, mfumo wa DeepMind AlphaGo haujawahi kushughulika na kutokuwa na uhakika, haijui ni ukosefu wa habari gani au kutokamilika kwake na kutofautiana, bila kutaja ugumu wa mwingiliano wa binadamu.

Kuna kigezo kingine kinachofanya michezo ya akili kuwa tofauti sana na ulimwengu halisi, na hii inahusiana tena na data. Hata michezo changamano (ikiwa sheria ni kali vya kutosha) inaweza kuigwa kikamilifu, kwa hivyo mifumo ya kijasusi bandia inayoicheza inaweza kukusanya kwa urahisi kiasi kikubwa cha data wanachohitaji kutoa mafunzo. Kwa hivyo, kwa upande wa Go, mashine inaweza kuiga mchezo na watu kwa kucheza dhidi yake yenyewe; hata kama mfumo unahitaji terabaiti za data, utajiunda wenyewe.

Watayarishaji programu wanaweza kupata data safi kabisa ya uigaji kwa gharama ndogo au bila gharama yoyote. Kinyume chake, katika ulimwengu wa kweli, data safi kabisa haipo, haiwezekani kuiiga (kwani sheria za mchezo zinabadilika kila wakati), na ni ngumu zaidi kukusanya gigabytes nyingi za data husika kwa majaribio. na makosa.

Kwa kweli, tuna majaribio machache tu ya kujaribu mikakati tofauti.

Hatuwezi, kwa mfano, kurudia ziara ya daktari mara milioni 10, hatua kwa hatua kurekebisha vigezo vya maamuzi kabla ya kila ziara, ili kuboresha kwa kasi tabia zetu katika suala la uchaguzi wa usafiri.

Ikiwa waandaaji wa programu wanataka kufundisha roboti kusaidia wazee (tuseme, kusaidia kulaza wagonjwa), kila data itastahili pesa halisi na wakati halisi wa mwanadamu; hakuna njia ya kukusanya data zote zinazohitajika kwa kutumia michezo ya kuiga. Hata dummies za majaribio ya kuacha kufanya kazi haziwezi kuchukua nafasi ya watu halisi.

Inahitajika kukusanya data juu ya wazee halisi wenye sifa tofauti za harakati za senile, kwenye aina tofauti za vitanda, aina tofauti za pajamas, aina tofauti za nyumba, na hapa huwezi kufanya makosa, kwa sababu kumwangusha mtu hata kwa umbali wa kadhaa. sentimita kutoka kitandani itakuwa janga. Katika kesi hii, hatarini ni maendeleo fulani (hadi sasa ya msingi zaidi) katika eneo hili yamepatikana kwa kutumia njia za akili nyembamba za bandia. Mifumo ya kompyuta imetengenezwa ambayo inacheza karibu katika kiwango cha wachezaji bora zaidi wa wanadamu katika michezo ya video ya Dota 2 na Starcraft 2, ambapo kwa wakati wowote ni sehemu tu ya ulimwengu wa mchezo inaonyeshwa kwa washiriki na, kwa hivyo, kila mchezaji anakabiliwa na tatizo la ukosefu wa habari - kwamba kwa mkono wa mwanga wa Clausewitz inaitwa "ukungu wa haijulikani." Walakini, mifumo iliyotengenezwa bado inazingatia umakini finyu na kutokuwa thabiti katika utendaji. Kwa mfano, programu ya AlphaStar inayocheza katika Starcraft 2 imejifunza mbio moja pekee kutoka kwa aina mbalimbali za wahusika, na karibu hakuna maendeleo haya yanayoweza kuchezwa kama jamii nyingine yoyote. Na, bila shaka, hakuna sababu ya kuamini kwamba mbinu zinazotumiwa katika programu hizi zinafaa kwa ajili ya kufanya jumla ya mafanikio katika hali ngumu zaidi ya maisha halisi. maisha halisi. Kama IBM imegundua sio mara moja, lakini tayari mara mbili (kwanza kwenye chess, na kisha katika Hatari!), Mafanikio katika shida kutoka kwa ulimwengu uliofungwa hauhakikishii mafanikio katika ulimwengu wazi.

Mduara wa tatu wa pengo iliyoelezewa ni uhakikisho wa kuegemea kupita kiasi. Mara kwa mara, tunaona kwamba mara tu watu kwa msaada wa akili ya bandia wanapata suluhisho la tatizo fulani ambalo linaweza kufanya kazi bila kushindwa kwa muda, wanadhani moja kwa moja kwamba kwa marekebisho (na kwa kiasi kikubwa kidogo cha data) kila kitu. itafanya kazi kwa uhakika. Lakini hii si lazima iwe hivyo.

Tunachukua tena magari bila madereva. Ni rahisi kuunda onyesho la gari linalojiendesha ambalo litaendesha kwa usahihi kwenye njia iliyo na alama wazi kwenye barabara tulivu; hata hivyo, watu wameweza kufanya hivi kwa zaidi ya karne moja. Hata hivyo, ni vigumu zaidi kupata mifumo hii kufanya kazi katika hali ngumu au zisizotarajiwa.

Kama vile Missy Cummings, mkurugenzi wa Maabara ya Binadamu na Uhuru katika Chuo Kikuu cha Duke (na rubani wa zamani wa mpiganaji wa Jeshi la Wanamaji la Marekani), alivyotuambia katika barua pepe, swali si kwamba gari lisilo na dereva linaweza kusafiri maili ngapi bila ajali. ambayo magari haya yana uwezo wa kukabiliana na mabadiliko ya hali. Kulingana na Missy Cummings, barua pepe kwa waandishi mnamo Septemba 22, 2018., magari ya kisasa ya nusu-uhuru "kawaida hufanya kazi tu katika hali nyembamba sana, ambayo haisemi chochote kuhusu jinsi wanaweza kufanya kazi chini ya hali nzuri."

Kuonekana kutegemewa kabisa kwa mamilioni ya maili za majaribio huko Phoenix haimaanishi kufanya vyema wakati wa masika huko Bombay.

Tofauti hii ya kimsingi kati ya jinsi magari yanayojiendesha yanavyofanya kazi katika hali bora (kama vile siku za jua kwenye barabara za njia nyingi za miji) na yale ambayo wanaweza kufanya katika hali mbaya inaweza kuwa suala la mafanikio na kutofaulu kwa tasnia nzima.

Kwa msisitizo mdogo sana juu ya kuendesha gari kwa uhuru katika hali mbaya na kwamba mbinu ya sasa haijabadilika katika mwelekeo wa kuhakikisha kwamba otomatiki atafanya kazi kwa usahihi katika hali ambazo zimeanza kuzingatiwa kuwa halisi, inaweza kuwa wazi hivi karibuni kwamba mabilioni ya dola. zimetumika katika mbinu za kujenga magari yanayojiendesha ambayo yanashindwa tu kutoa uaminifu wa udereva kama binadamu. Inawezekana kwamba kufikia kiwango cha ujasiri wa kiufundi tunachohitaji, mbinu ambazo kimsingi ni tofauti na za sasa zinahitajika.

Na magari ni mfano mmoja tu wa nyingi zinazofanana. Katika utafiti wa kisasa juu ya akili ya bandia, kuegemea kwake kumepuuzwa ulimwenguni. Hii ni kwa sababu maendeleo mengi ya sasa katika eneo hili yanahusisha matatizo ambayo yanastahimili makosa sana, kama vile kupendekeza utangazaji au kutangaza bidhaa mpya.

Hakika, ikiwa tunakupendekeza aina tano za bidhaa, na unapenda tatu tu kati yao, hakuna madhara yatatokea. Lakini katika idadi ya maombi muhimu ya AI kwa siku zijazo, pamoja na magari yasiyo na dereva, utunzaji wa wazee na upangaji wa huduma ya afya, kuegemea kama binadamu itakuwa muhimu.

Hakuna mtu atakayenunua roboti ya nyumbani ambayo inaweza kubeba babu yako mzee kwa usalama mara nne kati ya tano.

Hata katika kazi hizo ambapo akili ya kisasa ya bandia inapaswa kinadharia kuonekana katika mwanga bora zaidi, kushindwa kubwa hutokea mara kwa mara, wakati mwingine kuangalia funny sana. Mfano wa kawaida: kompyuta, kwa kanuni, tayari zimejifunza vizuri jinsi ya kutambua ni nini (au kinachotokea) katika hii au picha hiyo.

Wakati mwingine algorithms hizi hufanya kazi nzuri, lakini mara nyingi hutoa makosa ya kushangaza kabisa. Ukionyesha picha kwenye mfumo wa kiotomatiki unaotengeneza maelezo mafupi ya picha za matukio ya kila siku, mara nyingi utapata jibu ambalo linafanana sana na vile mwanadamu angeandika; kwa mfano, kwa tukio lililo hapa chini, ambapo kundi la watu wanacheza frisbee, mfumo wa kutengeneza manukuu ya Google unaotangazwa sana unaupa jina sahihi kabisa.

Mchoro 1.1. Kundi la vijana wanaocheza frisbee (manukuu ya picha yanayokubalika, yaliyotolewa kiotomatiki na AI)
Mchoro 1.1. Kundi la vijana wanaocheza frisbee (manukuu ya picha yanayokubalika, yaliyotolewa kiotomatiki na AI)

Lakini dakika tano baadaye, unaweza kupata jibu lisilo na maana kabisa kutoka kwa mfumo huo huo, kama ilivyotokea, kwa mfano, na ishara hii ya barabara, ambayo mtu alishika stika: kompyuta inayoitwa Waundaji wa mfumo hawakuelezea kwa nini kosa hili lilitokea., lakini kesi kama hizo sio kawaida. Tunaweza kudhani kuwa mfumo katika hali hii uliainisha (labda kulingana na rangi na umbile) picha kama sawa na picha zingine (ambazo ilijifunza kutoka kwayo) iliyoitwa "friji iliyojaa vyakula na vinywaji vingi." Kwa kawaida, kompyuta haikuelewa (ambayo mtu angeweza kuelewa kwa urahisi) kwamba uandishi huo ungekuwa sahihi tu katika kesi ya sanduku kubwa la chuma la mstatili na vitu mbalimbali (na hata hivyo si vyote) ndani. eneo hili ni "jokofu yenye vyakula na vinywaji vingi."

Mchele. 1.2. Jokofu iliyojaa mizigo ya vyakula na vinywaji (kichwa cha habari kisichowezekana kabisa, kilichoundwa na mfumo sawa na hapo juu)
Mchele. 1.2. Jokofu iliyojaa mizigo ya vyakula na vinywaji (kichwa cha habari kisichowezekana kabisa, kilichoundwa na mfumo sawa na hapo juu)

Vivyo hivyo, magari yasiyo na dereva mara nyingi hutambua kwa usahihi kile "wanachokiona," lakini wakati mwingine huonekana kupuuza dhahiri, kama ilivyokuwa kwa Tesla, ambayo mara kwa mara iligonga malori ya moto yaliyoegeshwa au ambulensi kwenye autopilot. Maeneo upofu kama haya yanaweza kuwa hatari zaidi ikiwa yanapatikana katika mifumo inayodhibiti gridi za nishati au inawajibika kufuatilia afya ya umma.

Ili kuziba pengo kati ya matamanio na ukweli wa akili ya bandia, tunahitaji vitu vitatu: ufahamu wazi wa maadili yaliyo hatarini katika mchezo huu, ufahamu wazi wa kwa nini mifumo ya kisasa ya AI haifanyi kazi zao kwa uhakika, na, hatimaye, mkakati mpya wa kufikiri wa mashine ya maendeleo.

Kwa kuwa masuala ya akili bandia ni makubwa sana katika masuala ya kazi, usalama, na muundo wa jamii, kuna hitaji la dharura kwa sisi sote - wataalamu wa AI, taaluma zinazohusiana, raia wa kawaida na wanasiasa - kuelewa hali halisi ya mambo. katika uwanja huu ili kujifunza kwa kina kutathmini kiwango na asili ya maendeleo ya akili ya leo ya bandia.

Kama vile ilivyo muhimu kwa raia wanaopenda habari na takwimu kuelewa jinsi ilivyo rahisi kupotosha watu kwa maneno na nambari, vivyo hivyo hapa kuna kipengele muhimu cha uelewa ili tuweze kujua wapi akili ya bandia iko. matangazo tu, lakini ni wapi halisi; kile anachoweza kufanya sasa, na kile ambacho hajui jinsi gani na, labda, hatajifunza.

Jambo muhimu zaidi ni kutambua kwamba akili ya bandia sio uchawi, lakini tu seti ya mbinu na algorithms, ambayo kila mmoja ina nguvu na udhaifu wake, inafaa kwa kazi fulani na haifai kwa wengine. Sababu moja kuu tuliyojiwekea kuandika kitabu hiki ni kwamba mengi ya yale tunayosoma kuhusu akili ya bandia yanaonekana kwetu kuwa ndoto kabisa, inayokua kutokana na imani isiyo na msingi katika karibu nguvu ya kichawi ya akili ya bandia.

Wakati huo huo, hadithi hii haina uhusiano wowote na uwezo wa kisasa wa kiteknolojia. Kwa bahati mbaya, majadiliano ya AI kati ya umma kwa ujumla yameathiriwa na yameathiriwa sana na uvumi na kutia chumvi: watu wengi hawajui jinsi ilivyo vigumu kuunda akili ya bandia ya ulimwengu wote.

Hebu tufafanue mjadala zaidi. Ingawa kufafanua ukweli unaohusishwa na AI kutahitaji ukosoaji mkubwa kutoka kwetu, sisi wenyewe sio wapinzani kwa njia yoyote ya akili ya bandia, tunapenda sana upande huu wa maendeleo ya kiteknolojia. Tumeishi sehemu kubwa ya maisha yetu kama wataalamu katika fani hii na tunataka iendelezwe haraka iwezekanavyo.

Mwanafalsafa wa Marekani Hubert Dreyfus aliwahi kuandika kitabu kuhusu urefu gani, kwa maoni yake, akili ya bandia haiwezi kufikia kamwe. Hivi sivyo kitabu hiki kinahusu. Inaangazia kwa sehemu kile ambacho AI haiwezi kufanya kwa sasa na kwa nini ni muhimu kuielewa, lakini sehemu kubwa yake inazungumza kuhusu kile kinachoweza kufanywa ili kuboresha kufikiri kwa kompyuta na kuipanua hadi maeneo ambayo sasa ina ugumu wa kufanya kwanza.

Hatutaki akili ya bandia kutoweka; tunataka iboreshwe, zaidi ya hayo, kwa kiasi kikubwa, ili tuweze kuitegemea na kutatua kwa msaada wake matatizo mengi ya wanadamu. Tuna lawama nyingi kuhusu hali ya sasa ya akili ya bandia, lakini ukosoaji wetu ni dhihirisho la upendo kwa sayansi tunayofanya, sio wito wa kukata tamaa na kuacha kila kitu.

Kwa kifupi, tunaamini kwamba akili ya bandia inaweza kweli kubadilisha ulimwengu wetu; lakini pia tunaamini kwamba mawazo mengi ya msingi kuhusu AI lazima yabadilike kabla tuweze kuzungumza kuhusu maendeleo ya kweli. "Kuweka upya" kwetu kwa akili ya bandia sio sababu ya kukomesha utafiti (ingawa wengine wanaweza kuelewa kitabu chetu kwa roho hii), lakini utambuzi: tumekwama wapi sasa na tunatokaje hali ya leo.

Tunaamini kuwa njia bora ya kusonga mbele inaweza kuwa kutazama ndani, tukikabili muundo wa akili zetu wenyewe.

Mashine zenye akili kweli si lazima ziwe mfano halisi wa binadamu, lakini mtu yeyote anayetazama akili ya bandia kwa uaminifu ataona kwamba bado kuna mengi ya kujifunza kutoka kwa wanadamu, hasa kutoka kwa watoto wadogo, ambao kwa njia nyingi ni bora zaidi kuliko mashine. uwezo wao wa kunyonya na kuelewa dhana mpya.

Wanasayansi wa kimatibabu mara nyingi hutaja kompyuta kama mifumo ya "superhuman" (kwa njia moja au nyingine), lakini ubongo wa mwanadamu bado uko juu sana kuliko wenzao wa silicon katika angalau nyanja tano: tunaweza kuelewa lugha, tunaweza kuelewa ulimwengu, tunaweza kubadilika. kukabiliana na hali mpya, tunaweza kujifunza mambo mapya kwa haraka (hata bila kiasi kikubwa cha data) na tunaweza kusababu katika uso wa taarifa zisizo kamili na hata zinazokinzana. Katika nyanja hizi zote, mifumo ya kisasa ya akili ya bandia iko nyuma ya wanadamu bila tumaini.

Akili Bandia Anzisha Upya
Akili Bandia Anzisha Upya

Akili Bandia: Kuwasha upya kutawavutia watu wanaotaka kuelewa teknolojia za kisasa na kuelewa jinsi na lini kizazi kipya cha AI kinaweza kufanya maisha yetu kuwa bora.

Ilipendekeza: