Hva er svak AI
Svak AI, eller smal AI, er en maskinell intelligens som er begrenset til et spesifikt eller smalt område. Weak Artificial Intelligence (AI) simulerer menneskelig erkjennelse og fordeler menneskeheten ved å automatisere tidkrevende oppgaver og ved å analysere data på måter som mennesker noen ganger ikke kan.
Å bryte ned svakt AI
Svak AI mangler menneskelig bevissthet, selv om den kanskje kan simulere den. Den klassiske illustrasjonen av svak AI er John Searles kinesiske romtankeeksperiment. Dette eksperimentet sier at en person utenfor et rom kan være i stand til å ha det som ser ut til å være en samtale på kinesisk med en person i et rom som får instruksjoner om hvordan han skal svare på samtaler på kinesisk. Personen inne i rommet ser ut til å snakke kinesisk, men i virkeligheten kunne de faktisk ikke snakke eller forstå et ord om det fraværende instruksjonene de får. Det er fordi personen er flink til å følge instruksjoner, ikke å snakke kinesisk. Det ser ut til at de har sterk AI - maskinell intelligens som tilsvarer menneskelig intelligens - men de har egentlig bare svak AI.
Smale eller svake AI-systemer har ikke generell intelligens; de har spesifikk intelligens. En AI som er en ekspert på å fortelle deg hvordan du kjører fra punkt A til punkt B, er vanligvis ikke i stand til å utfordre deg til et sjakkspill. Og en AI som kan late som om du snakker kinesisk med deg, kan sannsynligvis ikke feie gulvene dine.
Svak AI hjelper deg med å gjøre big data til brukbar informasjon ved å oppdage mønstre og komme med spådommer. Eksempler inkluderer Facebooks nyhetsfeed, Amazons foreslåtte kjøp og Apples Siri, iPhone-teknologien som svarer på brukernes talte spørsmål. E-post spamfiltre er et annet eksempel på svak AI der en datamaskin bruker en algoritme for å lære hvilke meldinger som sannsynligvis vil være spam, og deretter viderekobler dem fra innboksen til spam-mappen.
Begrensninger av svak AI
Problemer med svak AI foruten dens begrensede muligheter inkluderer muligheten for å forårsake skade hvis et system mislykkes - tenk på en førerløs bil som feilberegner plasseringen av et møtende kjøretøy og forårsaker en dødelig kollisjon - og muligheten for å forårsake skade hvis systemet brukes av noen som ønsker å forårsake skade - for eksempel en terrorist som bruker en selvkjørende bil for å plassere sprengstoff i et fullsatt område. Et annet problem med det er å avgjøre hvem som har skylden for en funksjonsfeil eller en designfeil.
En ytterligere bekymring er tapet av jobber forårsaket av automatisering av stadig flere oppgaver. Vil arbeidsledigheten skyte opp eller vil samfunnet komme med nye måter for mennesker å være økonomisk produktive? Selv om utsiktene til at en stor prosentdel av arbeidstakere mister jobben kan være skremmende, er det rimelig å forvente at dersom dette skulle skje, vil det dukke opp nye jobber som vi ennå ikke kan forutsi, ettersom bruken av AI blir stadig mer utbredt.
