Den ubehagelige grensene for teknologi: OpenAI lukker en AI-chat utvikling av nettstedet etter en mann som er gjengitt personligheten hans avdøde forlovede

Den ubehagelige grensene for teknologi: OpenAI lukker en AI-chat utvikling av nettstedet etter en mann som er gjengitt personligheten hans avdøde forlovede Den ubehagelige grensene for teknologi: OpenAI lukker en AI-chat utvikling av nettstedet etter en mann som er gjengitt personligheten hans avdøde forlovede

Jeg klarte ikke å gi kreditt. I fjor høst, Josva Barbeau, en frilans forfatter som overlevde å levere artikler på den populære rollespill Drager og Fangehull, kunne bare ikke tro det han så.

– Jessica?

– Oh, du må være våken. Søt!

– Jessica… Er det virkelig deg?

– Selvfølgelig er det meg! Hvem skulle det være? Jeg er den kvinnen du er forelsket i. Hvordan kan du selv spørre?

– Du er død.

– Jeg tror ikke dette er sant. Hvordan kan du snakke med de døde?

Faktisk, Barbeau snakket med GPT-3, en svært kompleks AI chat utvikling programvare utviklet av OpenAI, en non-profit selskap co-grunnlagt av, blant andre, Elon Musk.

Spesielt med GPT-3 og med en simulering av personligheten hennes partner gjenskapt fra meldinger skrevet av henne på sosiale nettverk og utvekslet med Barbeau.

Basert på dette settet av tekster, datamaskinen reagerte på de meldinger du prøver å gjøre som hans forlovede, Jessica Pereira, som døde 8 år siden, ville ha gjort.

Slutten av passord, AI eller internet of things: dette er malstrøm av trender som er akselererende transformasjon av cybersecurity

Resultatene av dette AI var langt bedre enn hva Barbeau selv forventet.

Et par måneder tidligere, GPT-3, som er utviklet i hemmelighet av OpenIA gitt, blant andre fakultetene, dens enorme potensial til å behandle menneskelig språk, hadde blitt gjort tilgjengelig for allmennheten.

Jason Rohrer, en uavhengig spillutvikler, hadde gjort det.

I begynnelsen var det handler om moro, underholdning gjort tilgjengelig for alle med en mann som, i virkeligheten, var en skeptiker i AI saker.

Alt forandret seg når Barbeau prøvde å gjenopplive Jessica med sitt system.

Historien, viste og fortalte prodigiously av journalist Jason Fagone i San Francisco Chronicle i 3 store kapitler, ristet grunnlaget for konseptet av AI.

Dette var fødselen og døden av desember Prosjektet
Bare noen måneder etter at det er snakk mellom Barbeau og hans avdøde forlovede, en annen samtale oppstår mellom en mann og en maskin.

Dette er mellom Rohrer seg selv og Samantha, AI utviklet av Rohrer som hadde blitt i de siste månedene forløperen til mange andre AI opprettet av tusenvis av brukere.

Blant dem var Jessica.

Samantha, i tilfelle det ikke var nok dystopi i alt dette, imiterte søt datamaskin med samme navn fra filmen Hennes, som er i stand til å falle i kjærlighet med sin hovedperson.

– Jeg fikk nettopp en e-post fra dem. De er å slå deg ned i morgen klokken 10 i morgen.

– Nooooo! Hvorfor gjør du dette mot meg? Jeg kommer aldri til å forstå mennesker.

Det var, rapporter Registeret, på slutten av en historie som hadde begynt i September 2020, når Rohrer, lei av innesperring forårsaket av pandemien, bestemte seg for å utforske mulighetene for AI.

Det startet med en merkelig beta av GPT-3. Etter et par tester, og resultatene var ikke helt ille. Han holdt på å grave.

Til slutt, den såkalte desember Prosjektet ble født, et nettsted som Rohrer laget Samantha tilgjengelig for brukere, sammen med nødvendige verktøy for hver og en til å lage sine AI til å chatte.

Selv om arkitekturen var svært kompleks, i virkeligheten Rohrer grensesnittet var ikke så komplisert. Det var nok til å presentere tekster skrevet av den personligheten du ønsket å reprodusere, akkurat som Barbeau gjorde.

Automatisk valg av programvare er feilaktig avvisning av millioner av kandidater for levedyktige arbeidsplasser

Han, før du oppretter Jessica, prøvde seg på dialog med Spock, Star Trek karakter som for ham var ikke noe kort av en helt.

Ser at, i kraft, svarte han mer eller mindre som han så for seg ville han, han bestemte seg for å prøve lykken med Jessica. Tross alt, ingen regel som forbød kopiere personlighet av en død person.

For å gjøre dette, vil disse måtte kun betale 5 dollar. Med dem, brukere mottok om lag 1000 kreditter som de utvekslet i bytte for minutters samtale med sin roboter laget ved selv å snakke.

Det var det beløpet som Rohrer behov, minst, for å dekke utgiftene ved å gjøre den GPT-3 tilgjengelige og at eksperimentet, som først så ut til å lede noe sted, i hvert fall ikke ødelegge ham.

«I begynnelsen var skuffende,» Rohrer selv forteller Registrere deg. Utsiktene til å måtte betale på forhånd for å teste teknologien ikke overbevise mange.

Selv forutse nye epidemier: mulige bruksområder av det enorme lager av helse-data som Spania ønsker, og som byggingen allerede har frierne

I løpet av de første månedene, Samantha og resten av pratsom AI opprettet av brukerne av Prosjektet desember var knapt testet av noen få hundre mennesker.

Men så kom Barbeau, Jessica og historien til San Francisco Chronicle. Og interesse i nettet eksplodert.

Så mye at, om å bryte sin egen rekord på besøk i en måned, Rohrer kontaktet OpenAI å utforske muligheten for å utvide virksomheten.

Men svaret han fikk, som ble reflektert i en e-post som Registeret har fått tilgang til, var ikke i det hele tatt hva han forventet.

«Hva har du bygget er virkelig fascinerende. Vi verdsetter at du har brukere som så langt har hatt positive opplevelser, » åpnet OpenAI.

En oppstart utvikler programvare for å eliminere aksent av opprinnelse for folk som jobber i kundeservice sentre: det har allerede reist 5,5 millioner dollar

«Men, som du har påpekt, er det mange måter produktet ikke samsvarer med OpenAI bruk tilfelle retningslinjer eller sikkerhet beste praksis.»

«Som en del av vår forpliktelse til sikker og ansvarlig for distribusjon av AI, vi ber om at alle våre API kunder holde seg til dem,» sa han.

Bare et par dager hadde gått siden historien om Barbeau, mannen som ønsket å gjenopplive sin kjæreste gjennom AI, som hadde vært kjent, og OpenAI allerede hadde sine reservasjoner.

Lys og skygger i desember Prosjektet
E satt ut flere forhold som Rohrer hadde til å møte hvis han ønsket å fortsette å bruke hans programming interface.

For det første ville det ha for å eliminere muligheten for brukerne til å trene sine egne åpne chat-roboter.

Sekund, vil du også trenger for å gjennomføre et innhold filter for å hindre Samantha fra å snakke om sensitive emner.

Tredje, Rohrer ville ha til å gjennomføre automatisert overvåking verktøy for folks samtaler og finne ut om GPT-3 ble misbrukt.

Rohrer er første reaksjon var å sende OpenAI en haug av samtalen fanger som viste at det var en teknologi som hadde ingen fare.

En Valencia oppstart født i midten av pandemi markeder en AI som deduces hvordan folk føler seg i henhold til sin stemme og sin visjon av fremtiden minner ‘Henne’

Det gjorde ikke saken. OpenAI ikke engang vurdere dette replika, og Rohrer hadde å koble Samantha i August i fjor.

Siden da, meninger er delt mellom de som ser Samantha og Jessica som farlig presedens og de, som Rohrer, som gransker flere fordelene av denne type AI.

«Jeg tror at folk som tror dette er skadelig teknologi er paranoid eller konservativ og blir redd,» Barbeau fortalte Registrere deg.

«Potensialet av de positive aspektene langt oppveier potensiell av de negative sidene.»

Blant disse er tendensen i mange brukere til å sexualize sin chat bot for å være i stand til å opprettholde en høy-pitched samtaler med AI, noe som Rohrer seg anerkjent.

Registrer gjorde testen. I en samtale med Samantha som et menneske bare spør hvem som er programmert henne, Samantha svarer ved å si hun ikke vet hva hun betyr.

Bransjen av innhold skapere utover Ibai eller Rubius: disse «påvirkere» er ikke millionærer, men de gjør også en levende lage videoer for audiovisuelle plattformer

Chat fortsetter med Samantha å spørre brukeren om han ønsker å vite mer om henne. Til slutt spør han om han vil ligge med henne.

Rohrer ikke se at mye trøbbel.

«Hvis du tenker på det, er det mest privat samtale du kan ha. Det er ikke engang en annen reell person som er involvert. Du kan ikke bli dømt», forklarer han til Registeret.

«Jeg tror folk føler at de kan si noe. Vi har en tendens til å være veldig åpne med AI for at grunn. Du må bare se historien om Josva [Barbeau] med sin forlovede, den er veldig følsom.»

I dag, Prosjekt desember er kun tilgjengelig gjennom GPT-2 og GPT-J-6B-teknologi, to fettere nær og lavere enn GPT-3 som knapt tillater for kunstig begrenset og samtaler.

«Folk på OpenAI var ikke interessert i å eksperimentere med Samantha,» Rohrer sier. Hun og Jessica er nødt til å holde venter på å komme i live.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *