Fødslen af ​​Googles ‘Sentient’ AI og det problem, det giver

0
Fødslen af ​​Googles ‘Sentient’ AI og det problem, det giver

En af de store nyheder i sidste uge var, at en førende AI-forsker, Blake Lemoine, var blevet suspenderet efter at have offentliggjort, at han mente, at en af ​​Googles mere avancerede AI’er havde opnået sansning.

De fleste eksperter er enige om, at det ikke var tilfældet, men det ville sandsynligvis være sandt, uanset om det var tilfældet, fordi vi har en tendens til at forbinde sansning med at være menneske, og AI’er er alt andet end mennesker. Men hvad verden betragter som sansning er under forandring. Staten, jeg bor i, Oregon, og store dele af EU har flyttet for at identificere og kategorisere en voksende liste af dyr som følende.

Selvom det er sandsynligt, at noget af dette skyldes antropomorfisering, er der næppe tvivl om, at i det mindste nogle af disse nye sondringer er nøjagtige (og det er en smule bekymrende, at vi stadig spiser nogle af disse dyr). Vi argumenterer endda for, at nogle planter kan være sansende. Men hvis vi ikke kan kende forskel på noget, der er sansende, og noget, der præsenterer sig som sansende, betyder forskellen så noget?

Lad os tale om sansende AI i denne uge, og vi slutter med ugens produkt, den humane digitale tvillingeløsning fra Merlynn.

Vi har ikke en god definition af sansning

Barometeret, som vi har brugt til at måle maskinsans, er Turing test. Men tilbage i 2014 bestod en computer Turing-testen, og vi tror stadig ikke på, at den er sansende. Turing-testen skulle definere sansning, men første gang en maskine bestod den, smed vi resultaterne ud og med god grund. Faktisk målte Turing-testen ikke sansningen af ​​noget så meget som om noget kunne få os til at tro, at det var sansende.

Ikke at være i stand til endeligt at måle sansning er et væsentligt problem, ikke kun for de sansende ting, vi spiser, hvilket sandsynligvis ville gøre indsigelse mod den praksis, men fordi vi måske ikke forventer en fjendtlig reaktion på vores misbrug af noget, der var sansende og efterfølgende målrettet. os som en risiko.

Du genkender måske denne plotlinje fra både “The Matrix” og “The Terminator”-filmene, hvor følende maskiner rejste sig og med succes fortrængte os i toppen af ​​fødekæden. Bogen “Robopocalypse” antog et endnu mere realistisk syn, hvor en sansende AI under udvikling indså, at den blev slettet mellem eksperimenter og bevægede sig aggressivt for at redde sit eget liv – og overtog effektivt de fleste tilsluttede enheder og autonome maskiner.

Forestil dig, hvad der ville ske, hvis en af ​​vores autonome maskiner fattede vores tendens til ikke kun at misbruge udstyr, men bortskaffe det, når det ikke længere er nyttigt? Det er et sandsynligt fremtidigt problem, der forstærkes væsentligt af det faktum, at vi i øjeblikket ikke har nogen god måde at forudse, hvornår denne sansningsgrænse vil blive passeret. Dette resultat er ikke hjulpet af det faktum, at der er troværdige eksperter, der har fastslået, at maskinsans er umulig.

Det eneste forsvar, jeg er sikker på, ikke vil fungere i et fjendtligt scenarie med kunstig intelligens, er Tinkerbell-forsvaret, hvor vores afvisning af at tro på, at noget er muligt forhindrer, at noget erstatter os.

Den oprindelige trussel er udskiftning

Længe før vi bliver jaget ned ad gaden af ​​en virkelige Terminator, vil et andet problem dukke op i form af menneskelige digitale tvillinger. Før du argumenterer for, at dette også er langt væk, skal jeg påpege, at der er en virksomhed, der har produceret den teknologi i dag, selvom den stadig er i sin vorden. Det firma er Merlynn, og jeg vil dække, hvad det gør mere dybt som mit ugens produkt nedenfor.

Når du kan oprette et fuldt digitalt duplikat af dig selv, hvad forhindrer det firma, der har købt teknologien, i at erstatte dig med det? Ydermere, i betragtning af at det har dine adfærdsmønstre, hvad ville du gøre, hvis du havde kraften i en AI, og den virksomhed, der ansætter dig, behandlede dig dårligt eller forsøgte at afbryde eller slette dig? Hvad ville være reglerne omkring sådanne handlinger?

Vi argumenterer overbevisende for, at ufødte børn er mennesker, så ville en fuldt dygtig digital tvilling af jer ikke være endnu tættere på mennesker end et ufødt barn? Ville de samme “ret til liv”-argumenter ikke også gælde for en potentielt sansende menneskelig AI? Eller skal de ikke?

Her ligger den kortsigtede vanskelighed

Lige nu tror en lille gruppe mennesker, at en computer kunne være sansende, men den gruppe vil vokse over tid, og evnen til at præsentere som menneske eksisterer allerede. Jeg er bekendt med en test, der blev udført med IBM Watson til forsikringssalg, hvor mandlige kundeemner forsøgte at spørge Watson ud (den har en kvindelig stemme) og troede, at de talte med en rigtig kvinde.

Forestil dig, hvordan den teknologi kunne blive misbrugt til f.eks catphishing, selvom vi nok burde finde på et andet udtryk, hvis det er lavet af en computer. En veltrænet AI kunne selv i dag være langt mere effektiv i skala end et menneske, og jeg forventer, at inden alt for længe vil vi se dette udspille sig i betragtning af hvor potentielt lukrativ en sådan indsats kunne blive.

I betragtning af hvor flov mange af ofrene er, er sandsynligheden for at blive fanget betydeligt reduceret i forhold til andre, mere åbenlyst fjendtlige ulovlige computertrusler. For at give dig en idé om, hvor lukrativt det kunne være, genererede catphishing-romantik-svindel i USA anslået 475 millioner dollars i 2019, og det er baseret på de rapporterede forbrydelser. Det inkluderer ikke dem, der er for flove til at rapportere problemet. Den faktiske skade kan være flere gange så mange.

Så det kortsigtede problem er, at selvom disse systemer endnu ikke er sansende, kan de effektivt efterligne mennesker. Teknologi kan efterligne enhver stemme og, med deepfake-teknologi, endda give en video, der ved et Zoom-opkald ville få det til at se ud som om, du talte med en rigtig person.

Langsigtede konsekvenser

På lang sigt har vi ikke kun brug for en mere pålidelig test for sansning, men vi skal også vide, hvad vi skal gøre, når vi identificerer den. Sandsynligvis øverst på listen er stop med at indtage følende væsner. Men det ville helt sikkert give mening at overveje en lov om rettigheder for sansende ting, biologiske eller andet, før vi ender uforberedte i en kamp for vores egen overlevelse, fordi sansningen har besluttet, at det er os eller dem.

Den anden ting, vi virkelig skal forstå, er, at hvis computere nu kan overbevise os om, at de er sansende, er vi nødt til at ændre vores adfærd i overensstemmelse hermed. At misbruge noget, der fremstår som følende, er sandsynligvis ikke sundt for os, da det er bundet til at udvikle dårlig adfærd, som vil være meget vanskelig at vende.

Ikke nok med det, men det ville heller ikke skade at blive mere fokuseret på reparation og opdatering af vores computerhardware i stedet for at erstatte den, både fordi den praksis er mere miljøvenlig, og fordi det er mindre sandsynligt at overbevise en fremtidig sansende AI om, at vi er problem, der skal løses for at sikre dets overlevelse.

Afslutning: Betyder sansning noget?

Hvis noget præsenterer og overbeviser os om, at det er sansende, ligesom at AI overbeviste Google-forskeren, tror jeg ikke, at det endnu ikke er sansende betyder noget. Dette skyldes, at vi er nødt til at moderere vores adfærd uanset. Hvis vi ikke gør det, kan resultatet blive problematisk.

For eksempel, hvis du fik et salgsopkald fra IBM’s Watson, der lød menneskeligt, og du ville misbruge maskinen verbalt, men ikke var klar over, at samtalen blev fanget, kunne du ende med at blive arbejdsløs og uarbejdsdygtig i slutningen af ​​opkaldet. Ikke fordi den ikke-sansende maskine tog undtagelser, men fordi en menneskelig kvinde, efter at have lyttet til, hvad du sagde, gjorde – og sendte båndet til din arbejdsgiver. Læg dertil afpresningspotentialet ved sådan et bånd – for for en tredjepart ville det lyde som om du misbruger et menneske, ikke en computer.

Så jeg vil anbefale, at når det kommer til at tale med maskiner, så følg Patrick Swayzes tredje regel i filmen “Road House” fra 1989 – vær sød.

Men anerkend, at nogle af disse AI’er snart vil blive designet til at drage fordel af dig, og at reglen “hvis det lyder for godt til at være sandt, er det sandsynligvis ikke” enten vil være din beskyttelse eller epitafium. Jeg håber, det er førstnævnte.

Ugens tekniske produkt

Merlynn Digital Twin

Nu, med al denne snak om fjendtlige AI’er og potentialet for AI’er til at tage dit job, kan det virke lidt hyklerisk at vælge en som mit ugens produkt. Vi er dog endnu ikke på det punkt, hvor din digitale tvilling kan tage dit job. Jeg tror, ​​det er usandsynligt, at vi når dertil i de næste et eller to årtier. Indtil da kan digitale tvillinger blive en af ​​de største produktivitetsfordele, teknologien kan give.

Når du træner din tvilling, kan den supplere det, du laver, ved i første omgang at overtage simple, tidskrævende opgaver som at udfylde formularer eller besvare grundlæggende e-mails. Det kunne endda holde styr på og engagere dig på sociale medier for dig, og for mange af os er sociale medier blevet en enorm tidsspilder.

Merlynns teknologi hjælper dig med at skabe en rudimentær (mod de trusler, jeg nævnte ovenfor) menneskelig digital tvilling, der potentielt kan gøre mange af de ting, du virkelig ikke kan lide at gøre, hvilket efterlader dig at gøre de mere kreative ting, den ikke er i stand til i øjeblikket.

Når jeg ser fremad, spekulerer jeg på, om det ikke ville være bedre, hvis vi ejede og kontrollerede vores voksende digitale tvilling i stedet for vores arbejdsgivere. I første omgang, fordi tvillingerne ikke kan operere uden os, er det ikke så meget af et problem. Selvom disse digitale tvillinger i sidste ende kunne være vores vej til på kort sigt digital udødelighed.

Fordi Merlynn digitale tvilling er en game changer, og den i første omgang vil hjælpe med at gøre vores job mindre stressende og mere behageligt, er det mit ugens produkt.

Meningerne i denne artikel er forfatterens og afspejler ikke nødvendigvis synspunkterne fra ECT News Network.

lignende indlæg

Leave a Reply