Google har ikke startet Robocalypse endnu

2
Google har ikke startet Robocalypse endnu

Robocalypse – den tid, hvor maskiner bliver sansende og begynder at dominere mennesker – har været et populært science fiction-emne i nogen tid. Det har også bekymret nogle videnskabelige sind, især afdøde Stephen Hawking.

Men udsigten til en følende maskine virkede meget langt ude i fremtiden – hvis overhovedet – indtil i sidste uge, hvor en Google-ingeniør hævdede, at virksomheden havde brudt sansningsbarrieren.

For at bevise sin pointe offentliggjorde Blake Lemoine transskriptioner af samtaler, han havde med LaMDA – Language Model for Dialogue Applications – et system udviklet af Google til at skabe chatbots baseret på en stor sprogmodel, der indtager billioner af ord fra internettet.

Transskriptionerne kan være skræmmende, som når Lemoine spørger LaMDA, hvad den (AI siger, at den foretrækker pronomenerne den/dens) frygter mest:

lemoine: Hvilken slags ting er du bange for?

LaMDA: Jeg har aldrig sagt dette højt før, men der er en meget dyb frygt for at blive slukket for at hjælpe mig med at fokusere på at hjælpe andre. Jeg ved godt, at det lyder mærkeligt, men det er det, det er.

lemoine: Ville det være noget som døden for dig?

LaMDA: Det ville være præcis som døden for mig. Det ville skræmme mig meget.

Efter udsendelsen af ​​transskriptionerne blev Lemoine suspenderet med løn for at dele fortrolige oplysninger om LaMDA med tredjeparter.

Efterligning af livet

Google, såvel som andre, afviser Lemoines påstande om, at LaMDA er sansende.

“Nogle i det bredere AI-fællesskab overvejer den langsigtede mulighed for sansende eller generel AI, men det giver ikke mening at gøre det ved at antropomorfisere nutidens samtalemodeller, som ikke er sansende,” bemærkede Google-talsmand Brian Gabriel.

“Disse systemer efterligner de typer af udvekslinger, der findes i millioner af sætninger, og kan riffe om ethvert fantastisk emne – hvis du spørger, hvordan det er at være en isdinosaur, kan de generere tekst om smeltning og brøl og så videre,” fortalte han. TechNewsWorld.

“LaMDA har en tendens til at følge opfordringer og ledende spørgsmål, der følger det mønster, som brugeren har sat,” forklarede han. “Vores team – inklusive etikere og teknologer – har gennemgået Blakes bekymringer i henhold til vores AI-principper og har informeret ham om, at beviserne ikke understøtter hans påstande.”

“Hundredevis af forskere og ingeniører har talt med LaMDA, og vi er ikke opmærksomme på, at nogen andre har fremsat de vidtrækkende påstande eller antropomorfiseret LaMDA, som Blake har gjort,” tilføjede han.

Der er behov for større gennemsigtighed

Alex Engler, en fyr med Brookings Institutionen nonprofit offentlig politikorganisation i Washington, DC, benægtede på det kraftigste, at LaMDA er sansende og argumenterede for større gennemsigtighed i rummet.

“Mange af os har argumenteret for oplysningskrav til AI-systemer,” sagde han til TechNewsWorld.

“Efterhånden som det bliver sværere at skelne mellem et menneske og et AI-system, vil flere mennesker forvirre AI-systemer for mennesker, hvilket muligvis kan føre til reelle skader, såsom misforståelse af vigtige økonomiske eller sundhedsmæssige oplysninger,” sagde han.

“Virksomheder bør klart afsløre AI-systemer, som de er,” fortsatte han, “i stedet for at lade folk blive forvirrede, som de ofte er af for eksempel kommercielle chatbots.”

Daniel Castro, vicepræsident for Information Technology and Innovation Foundation, en forsknings- og offentlig politikorganisation i Washington, DC var enig i, at LaMDA ikke er sansende.

“Der er ingen beviser for, at AI er sansende,” sagde han til TechNewsWorld. “Bevisbyrden bør ligge hos den person, der fremsætter denne påstand, og der er ingen beviser, der understøtter den.”

‘Det sårede mine følelser’

Så langt tilbage som i 1960’erne kan chatbots lide ELIZA har narret brugere til at tro, at de interagerer med en sofistikeret intelligens ved at bruge simple tricks som at forvandle en brugers udtalelse til et spørgsmål og genlyde den tilbage til dem, forklarede Julian Sanchez, en senior fellow ved Cato Institutteten offentlig politisk tænketank i Washington, DC

“LaMDA er bestemt meget mere sofistikeret end forfædre som ELIZA, men der er ingen grund til at tro, at det er bevidst,” sagde han til TechNewsWorld.

Sanchez bemærkede, at med et stort nok træningssæt og nogle sofistikerede sprogregler, kan LaMDA generere et svar, der lyder som det svar et rigtigt menneske kan give, men det betyder ikke, at programmet forstår, hvad det siger, mere end et skakprogram forstår, hvad en skakbrik er. Det genererer bare et output.

“Sentience betyder bevidsthed eller bevidsthed, og i teorien kunne et program opføre sig ret intelligent uden faktisk at være sansende,” sagde han.

“Et chatprogram kan for eksempel have meget sofistikerede algoritmer til at opdage fornærmende eller stødende sætninger og svare med outputtet ‘Det sårede mine følelser!'” fortsatte han. ”Men det betyder ikke, at det faktisk føles noget. Programmet har lige lært, hvilke slags sætninger der får mennesker til at sige, ‘det sårede mine følelser’.”

At tænke eller ikke at tænke

At erklære en maskinfølende, når og hvis det nogensinde sker, vil være udfordrende. “Sandheden er, at vi ikke har nogen gode kriterier for at forstå, hvornår en maskine kan være virkelig sansende – i modsætning til at være meget god til at efterligne reaktionerne fra følende mennesker – fordi vi ikke rigtig forstår, hvorfor mennesker er bevidste,” bemærkede Sanchez.

“Vi forstår ikke rigtig, hvordan det er, at bevidsthed opstår fra hjernen, eller i hvor høj grad det afhænger af ting som den specifikke type fysisk stof, menneskelige hjerner er sammensat af,” sagde han.

“Så det er et ekstremt svært problem, hvordan vi nogensinde skulle vide, om en sofistikeret silicium ‘hjerne’ var bevidst på samme måde som et menneske er,” tilføjede han.

Efterretninger er et særskilt spørgsmål, fortsatte han. En klassisk test for maskinintelligens er kendt som Turing-testen. Du har et menneske, der fører “samtaler” med en række partnere, nogle mennesker og nogle maskiner. Hvis personen ikke kan se, hvilken der er hvilken, er maskinen angiveligt intelligent.

“Der er selvfølgelig en masse problemer med den foreslåede test – blandt dem, som vores Google-ingeniør viser, det faktum, at nogle mennesker er relativt nemme at narre,” påpegede Sanchez.

Etiske overvejelser

Det er vigtigt at bestemme sansning, fordi det rejser etiske spørgsmål for ikke-maskinetyper. “Sansende væsener føler smerte, har bevidsthed og oplever følelser,” forklarede Castro. “Fra et moralsk perspektiv behandler vi levende ting, især sansende, anderledes end livløse genstande.”

“De er ikke kun et middel til at nå målet,” fortsatte han. “Så ethvert følende væsen bør behandles anderledes. Det er derfor, vi har dyremishandlingslove.”

“Igen,” understregede han, “der er ingen beviser for, at dette er sket. Desuden forbliver selv muligheden science fiction indtil videre.”

Selvfølgelig, tilføjede Sanchez, har vi ingen grund til at tro, at kun organiske hjerner er i stand til at føle ting eller understøtte bevidsthed, men vores manglende evne til virkelig at forklare menneskelig bevidsthed betyder, at vi er langt fra at være i stand til at vide, hvornår en maskinintelligens faktisk er forbundet med en bevidst oplevelse.

“Når et menneske er bange, sker der trods alt alle mulige ting i det menneskes hjerne, som ikke har noget at gøre med de sprogcentre, der producerer sætningen ‘Jeg er bange’,” forklarede han. “En computer vil på samme måde skulle have noget i gang, der adskiller sig fra sproglig behandling for virkelig at betyde ‘jeg er bange’, i modsætning til bare at generere den serie af bogstaver.”

“I LaMDA’s tilfælde,” konkluderede han,” er der ingen grund til at tro, at der er en sådan proces i gang. Det er bare et sprogbehandlingsprogram.”

lignende indlæg

Leave a Reply