Programmering

En kort historie med kunstig intelligens

I de tidlige dage af kunstig intelligens forsøgte computerforskere at genskabe aspekter af det menneskelige sind i computeren. Dette er den type intelligens, der er stoffet i science fiction - maskiner, der mere eller mindre tænker som os. Denne type intelligens kaldes ikke overraskende forståelighed. En computer med forståelighed kan bruges til at undersøge, hvordan vi tænker, lærer, bedømmer, opfatter og udfører mentale handlinger.

Tidlig forskning om forståelighed fokuserede på modellering af dele af den virkelige verden og sindet (fra kognitive videnskabsfolk) i computeren. Det er bemærkelsesværdigt, når man tænker på, at disse eksperimenter fandt sted for næsten 60 år siden.

Tidlige modeller for intelligens fokuserede på deduktiv ræsonnement for at nå frem til konklusioner. En af de tidligste og mest kendte A.I. programmer af denne type var den logiske teoretiker, der blev skrevet i 1956 for at efterligne et menneskes menneskelige problemløsningskompetencer. Logikteoretikeren beviste snart 38 af de første 52 sætninger i kapitel to i Principia Mathematica, faktisk forbedrer en sætning i processen. For første gang blev det tydeligt demonstreret, at en maskine kunne udføre opgaver, der indtil dette tidspunkt blev anset for at kræve intelligens og kreativitet.

Snart drejede forskningen sig om en anden type tænkning, induktiv ræsonnement. Induktiv ræsonnement er, hvad en videnskabsmand bruger, når han undersøger data og forsøger at komme med en hypotese for at forklare det. For at studere induktiv ræsonnement oprettede forskere en kognitiv model baseret på forskerne, der arbejder i et NASA-laboratorium, og hjalp dem med at identificere organiske molekyler ved hjælp af deres viden om organisk kemi. Dendral-programmet var det første virkelige eksempel på det andet træk ved kunstig intelligens, instrumentalitet, et sæt teknikker eller algoritmer til at udføre en induktiv ræsonnementsopgave, i dette tilfælde molekylidentifikation.

Dendral var unik, fordi den også indeholdt den første vidensbase, et sæt af / da regler, der fangede videnskabernes viden, der skulle bruges sammen med den kognitive model. Denne form for viden ville senere blive kaldt enekspertsystem. At have begge slags "intelligens" tilgængelig i et enkelt program tillod computerforskere at spørge: "Hvad gør visse forskere så meget bedre end andre? Har de overlegne kognitive færdigheder eller større viden? ”

I slutningen af ​​1960'erne var svaret klart. Udførelsen af ​​Dendral var næsten fuldstændig en funktion af mængden og kvaliteten af ​​viden opnået fra eksperterne. Den kognitive model var kun svagt relateret til forbedringer i ydeevne.

Denne erkendelse førte til et stort paradigmeskift i det kunstige intelligenssamfund. Vidensteknologi opstod som en disciplin til at modellere specifikke domæner af menneskelig ekspertise ved hjælp af ekspertsystemer. Og de ekspertsystemer, de skabte, overskred ofte præstationen for en enkelt menneskelig beslutningstager. Denne bemærkelsesværdige succes udløste stor entusiasme for ekspertsystemer inden for kunstig intelligens, militæret, industrien, investorer og den populære presse.

Da ekspertsystemer blev kommercielt succesrige, vendte forskere opmærksomheden mod teknikker til modellering af disse systemer og gør dem mere fleksible på tværs af problemdomæner. Det var i denne periode, at objektorienteret design og hierarkiske ontologier blev udviklet af AI-samfundet og vedtaget af andre dele af computersamfundet. I dag er hierarkiske ontologier kernen i videngrafer, der har set en genopblussen i de senere år.

Da forskere besluttede sig for en form for vidensrepræsentation kendt som "produktionsregler", en form for første ordens prædikatlogik, opdagede de, at systemerne kunne lære automatisk; dvs. systemerne kan skrive eller omskrive selve reglerne for at forbedre ydeevnen baseret på yderligere data. Dendral blev ændret og fik evnen til at lære reglerne for massespektrometri baseret på de empiriske data fra eksperimenter.

Så gode som disse ekspertsystemer var, havde de begrænsninger. De var generelt begrænset til et bestemt problemdomæne og kunne ikke skelne fra flere sandsynlige alternativer eller udnytte viden om struktur eller statistisk sammenhæng. For at løse nogle af disse problemer tilføjede forskere sikkerhedsfaktorer - numeriske værdier, der angav, hvor sandsynligt en bestemt kendsgerning er sand.

Starten på det andet paradigmeskift i AI opstod, da forskere indså, at sikkerhedsfaktorer kunne pakkes ind i statistiske modeller. Statistik og Bayesian-inferens kunne bruges til at modellere domæneekspertise ud fra de empiriske data. Fra dette tidspunkt vil kunstig intelligens i stigende grad blive domineret af maskinlæring.

Der er dog et problem. Selvom maskinindlæringsteknikker som tilfældig skov, neurale netværk eller GBT'er (gradientforstærkede træer) giver nøjagtige resultater, er de næsten uigennemtrængelige sorte kasser. Uden forståelig output er maskinindlæringsmodeller mindre nyttige end traditionelle modeller i flere henseender. For eksempel med en traditionel AI-model kan en praktiserende læge spørge:

  • Hvorfor begik modellen denne fejl?
  • Er modellen forudindtaget?
  • Kan vi demonstrere overholdelse af lovgivningen?
  • Hvorfor er modellen uenig med en domæneekspert?

Manglen på forståelighed har også træningsimplikationer. Når en model går i stykker og ikke kan forklare hvorfor, gør det det vanskeligere at rette. Tilføj flere eksempler? Hvilke slags eksempler? Selv om der er nogle enkle afvejninger, vi kan foretage i mellemtiden, såsom at acceptere mindre nøjagtige forudsigelser til gengæld for forståelighed, har evnen til at forklare maskinlæringsmodeller vist sig som en af ​​de næste store milepæle, der skal opnås inden for AI.

De siger, at historien gentager sig selv. Tidlig AI-forskning, som den i dag, fokuserede på modellering af menneskelig ræsonnement og kognitive modeller. De tre hovedspørgsmål, som tidlige AI-forskere står over for - viden, forklaring og fleksibilitet - er også fortsat centrale i nutidige diskussioner af maskinlæringssystemer.

Viden tager nu form af data, og behovet for fleksibilitet kan ses i skørheden af ​​neurale netværk, hvor små forstyrrelser af data giver dramatisk forskellige resultater. Forklarelighed har også vist sig at være en topprioritet for AI-forskere. Det er noget ironisk, hvordan vi 60 år senere er gået fra at forsøge at replikere menneskelig tænkning til at spørge maskinerne, hvordan de tænker.