Fara í innihald

Saga gervigreindar

Úr Wikipediu, frjálsa alfræðiritinu

Saga gervigreindar hófst sumarið 1956 en þá komu tíu manns saman til tveggja mánaða vinnufundar í Dartmouth í Bandaríkjunum. Tilgangur vinnufundarins var að koma saman þeim vísindamönnum sem höfðu áhuga á tauganetum og rannsóknum á greind. Fundurinn var að frumkvæði John McCarthy sem þá hafði nýlokið meistaranámi frá Princeton-háskóla og vann nú við Dartmouth College.[1]

Þátttakendur voru:

Þessi fundur markar faglegt upphaf gervigreindar og kynnir til sögunnar þá menn sem standa í fylkingarbrjósti gervigreindar næstu 20 árin á eftir. þar kemur McCarthy fyrst fram með fagheitið „artificial intelligence“ eða gervigreind eins og það er nefnt á íslensku. Á fundinum kynntu Newell og Simon forritið Logic Theorist og sögðust hafa fundið með því forrit sem væri þess megnugt að hugsa á þann hátt sem ekki var bundinn við tölur og þar með aðskilið huga frá líkama. Stór orð en sönn ef reynt er að aðskilja tilfinningalega hugsun frá hugsun sem snýr að vinnslu upplýsinga.

Þótt faglegur grunnur hafi verið lagður að gervigreind á þessum fundi þá á gervigreind sér lengri sögu. Árið 1943 skrifuðu Warren McCulloch og Walter Pitts fyrstu fræðilegu greinina sem eignuð er gervigreind. Þeir settu saman kenningar um virkni og uppbyggingu taugafruma í heilanum, kenningar Russells og Whiteheads um yrðingarökfræði og tölvunarkenningar Alans Turings. Niðurstaða þeirra var líkan af gervitaugafrumum sem hægt var að kveikja eða slökkva á með því að áreita nálægar frumur. Þeir sýndu fram á að niðurstöðu hvaða reiknanlegs falls sem er, mátti ná með neti slíkra gervitaugafruma. Þeir vörpuðu því einnig fram í greininni að slík gervitauganet gætu lært. Þetta sannaði Donald Hebb sex árum síðar með því að finna upp einfalda aðferð til að uppfæra vigt tenginganna á milli eininganna (taugafrumnanna). Marvin Minsky og Dean Edmonds byggðu fyrstu gervitauganetstölvuna (SNARC) árið 1951 úr 3000 lömpum og sjálfstýringu úr B-24 sprengjuflugvél. Tölvan hafði 40 gervitauganetsfrumur eða eindir. Rekja má aðferðafræði bæði samtengingasinna (e. connectionism) og rökfræðisinna (e. logicism) innan gervigreindar til skrifa McCulloch og Pitts.

Samtengingasinnar vinna með gervitauganet með það að markmiði að útskýra og hanna greind.

Rökfræðisinnar leitast við að útskýra og hanna greind út frá rökfræðilegum forsendum.

Fyrsta skeiðið

[breyta | breyta frumkóða]

Framan af ríkti mikil bjartsýni í notkun gervigreindar. Newell og Simon þróuðu Logic Theorist áfram yfir í GPS (e. general problem solver), kerfi sem var hannað til þess að líkja eftir atferli manna við lausn vandamála. Herbert Gelenter hannaði GTP (e. geometry theorem prover) sem sannaði kenningar á grundvelli frumreglna líkt og Logic Theorist. Gelenter sá fljótlega að rökfræðin bauð upp á of margar mögulegar leiðir sem kanna þurfti í kerfinu og flestar enduðu án niðurstöðu. Hann hannaði því aðferðir til þess að flýta leit að niðurstöðu.

Í febrúar 1956 var tölva sýnd í bandarísku sjónvarpi sem hafði lært dam. Þar hafði Arthur Samuel hjá IBM afsannað þá kenningu að tölvur gætu aðeins gert það sem þeim var sagt, því þetta forrit hans lærði dam fljótt og lék betur en höfundurinn.

John McCarthy, sem þá var kominn til MIT skrifaði forritunarmálið LISP árið 1958 sem síðar varð vinsælt innan gervigreindar, sér í lagi í Bandaríkjunum. Sama ár skrifaði hann grein sem bar yfirskriftina „Programs with common cense“ og má þar sjá fyrsta fullkomna gervigreindarkerfið á pappír, sem hann nefndi „The advice taker“. Kerfið átti líkt og Logic Theorist og GTP að finna lausnir út frá þekkingu sinni en ólíkt Logic Theorist og GTP átti kerfið að geta aflað sér þekkingar sjálft og jafnframt breytt frumsendum (e. axioms) ef þurfa þótti og í eðlilegi keyrslu kerfisins. Aðgangur að tölvum var mjög takmarkaður á þessum tíma. McCarthy og félagar hans hjá MIT fundu því upp sameiginlegan keyrslutíma (e. time sharing) sem gjörbylti aðgangi að reikniafli, þetta gerist einnig 1958. Þessi hópur og þessi nýja uppfinning varð síðan kveikjan að stofnun „Digital Equipment Corporation“ eða DEC. McCarthy fór hins vegar til Stanfordháskóla og setti þar á stofn rannsóknarstofu í gervigreind þar sem lögð var áhersla á gerð og notkun almennra aðferða við rökfærslu.

Fyrri gervigreindarveturinn

[breyta | breyta frumkóða]

Væntingarnar voru miklar, líklega of miklar. Margt af því sem lagt var upp með brást þegar sýna átti árangur. Gott dæmi hvað þetta varðar voru forrit sem áttu að þýða milli tungumála og voru byggð á gervigreind, frægastur er líklega textinn úr ensk-rússnesku þýðingaforriti sem, þýddur aftur til baka á ensku, hljómaði „the vodka is good but the meat is rotten“ (vodkað er gott en kjötið þránað) sem átti að vera þýðing á „the spirit is willing but the flesh is weak“ (hugurinn er fús en holdið veikt). Vandamál af þessu tagi leiddu til þess að skipuð var nefnd á vegum Bandaríkjaþings til þess að gera úttekt á árangri af vinnu með gervigreind á þýðingum. Í kjölfarið hætti Bandaríkjastjórn að fjármagna rannsóknir á því sviði 1966.

Áður en tíma-flækju kenningin (e. NP completeness theory) kom fram var almennt álitið að einungis þyrfti að auka afl örgjörva og innra minni til þess að kerfi gengju í flóknara umhverfi. Í gervigreind vann fólk með mjög takmarkað umhverfi, svonefnt örumhverfi (e. microworld) en þegar umhverfið varð flóknara var ekki nægjanlegt að bæta við minni og örgjörvaafli, það tókst ekki að sanna kenningar sem gengu í einfaldara umhverfi, sem er vitaskuld afleitt. Þetta var meginástæða þess að bresk stjórnvöld hættu 1973 að styrkja rannsóknir í gervigreind nema að litlu leyti.

Marvin Minsky og Papert sögðu í bók sinni Perceptrons sem kom út 1969 að þó að tauganet gætu lært allt sem þau gátu lýst, þá gætu þau lýst afar litlu. Þetta olli því að allar rannsóknir á tauganetum lögðust af í áratug. Þeir félagar lýstu í bók sinni afar einföldum netum og áttu niðurstöður þeirra engan veginn við flóknari net, þær voru rangar að því leyti. Það er kaldhæðnislegt að sama ár og Perceptrons kom út fundu Bryson og Ho upp bakflutning villu (e. back-propagation) fyrir fjöllaga tauganet sem átti eftir að blása lífi í rannsóknir á tauganetum aftur um 1980.

Endurvakning

[breyta | breyta frumkóða]

Fyrstu sérfræðingakerfin (e. expert systems) litu dagsins ljós upp úr 1970. Það var sérfræðingakerfi Dendral frá þeim félögum í Stanford, Ed Feigenbaum, Bruce Buchanan og Joshua Lederberg sem ruddi brautina. Tilgangur þess var að finna uppbyggingu sameinda út frá upplýsingum um massa. Í kjölfarið fylgdi Mycin, sérfræðingakerfi til þess að finna blóðsýkingar. Feigenbaum og Buchanan nutu aðstoðar Edward Shortliffe við gerð kerfisins. Mycin var frábrugðið Dendral að því leiti að Mycin notaði tilbúnar reglur fengnar frá sérfræðingum í stað þess að vera grundvallað á almennum fræðilegum rökfræðireglum. Mycin notaðist einnig við loðna rökfræði (e. fuzzy logic) og gat því sagt til um líkur. Líklega er Prospector sérfræðingakerfið einna þekktast frá þessum tíma. Prospector var hannað hjá MRI til þess að finna málmgrýti og reyndist mjög gagnlegt.

Árangur í tungumálaskilningi náðist ekki fyrr en vísindamenn gerðu sér grein fyrir að þekking á viðfangsefninu skiptir sköpum í gervigreind. Þegar áherslan fór af verkfærunum og aðferðafræðinni yfir á viðfangsefnið fóru hlutirnir að gerast. Eitt fyrsta sérfræðingakerfið á þessu sviði var SHRDLU en áherslan þar var á málfræðireglur sem leiddi til slæmra þýðinga, það þurfti skilning á viðfangsefninu. Málfræðingurinn Roger Schank hristi upp í vísindamönnum með því að segja að engin málfræði væri til og skrifaði fjölmörg kerfi þar sem áherslan var á málskilning fyrst og fremst. Með þetta að leiðarljósi skrifaði William Woods Lunarkerfið sem notaði venjulega ensku og var ætlað jarðfræðingum til rannsóknar á grjóti sem Appolo-geimflaugin kom með frá tunglinu.

Hugmyndir Japana um fimmtu kynslóðar tölvuna 1981 varð að vítamínsprautu fyrir fagið, ekki síst vegna hræðslu annarra um japönsk yfirráð í tölvugeiranum. Þessi 10 ára áætlun Japana byggðist á því að hanna skynsaman vélbúnað byggðan á Prolog á svipaðan hátt og venjulegar tölvur byggðu á vélamáli.

Blómaskeið

[breyta | breyta frumkóða]

Á níunda áratug síðustu aldar má segja að gervigreind hafi orðið að iðnaði. Fyrirtæki sem sérhæfðu sig í gervigreind skutu upp kollinum og í flestum stærri fyrirtækjum voru reknar deildir eða hópar sem notuðu eða unnu að gerð sérfræðingakerfa. Rannsóknir á gervitauganetum sem höfðu að verulegu leyti grundvallast á eins lags perceptron-netum fyrir 1970 og höfðu lagst af eftir skrif Minskys og Paperts 1969, hófust nú aftur og má rekja upphaf endurlífgunarinnar til skrifa Rumelhart upp úr 1986. Fjöllaga gervitauganet höfðu sannað gildi sitt og nú hófst þróun sem enn sér ekki fyrir endann á. Hopfieldnet, Boltzmannvél og fleiri nýjungar litu dagsins ljós, en það var Cybenko sem setti fram sönnun um að tveggja laga gervitauganet gætu túlkað (eða áætlað) hvaða fall sem er en eins lags gervitauganet gæti túlkað hvaða samfellt fall sem er (setning Cybenkos). Grannfræði fjöllaga gervitauganeta má að hluta rekja til rannsókna á erfðaalgrímum (e. genetic algorithms) sem heyra undir gervigreind og byggja á því að vélar læri með þróun. Grannfræði gervitauganeta er þó ekki komin lengra á veg en svo að í flestum tilfellum er byggt á reynslu og innsæi við hönnun gervitauganeta. Þó aðferðafræði LeCun um „optimal brain damage“ sé oft notuð við lágmörkun á einingum og aðferðafræði Marchand og Frean um viðbætur á einingum er það enn svo að grannfræði upphafsneta eru byggð á reynslu og innsæi.

Flækjustig lærdómsferla gervitauganeta hefur verið rannsakað ítarlega. Niðurstöður Avrim Blum og Ron Rivest 1992 um leysanleika lærdómsferla gervitauganeta eru sannfærandi og sýna að þau eru „NP-fullkomin“ þ.e. þó fjöldi lægða vægisrýmisins sé veldisfall er víðvær kjörstaða vægja finnanleg.

Tilvísanir

[breyta | breyta frumkóða]
  1. „Andreas Kaplan (2022) Artificial Intelligence, Business and Civilization - Our Fate Made in Machines, Routledge, ISBN 9781032155319“.