Automatisering gone bad

Microsoft chatbot går helt nazi på Twitter, noen roboter debatterer eksistensielle dilemmaer mens andre rømmer fra laboratoriet.

 









MICROSOFT CHATBOT GÅR HELT NAZI PÅ TWITTER

KILDE: THE INFOWORLD REVIEW ROUNDUP

Microsoft chatbot I 2016 endte Microsoft opp i et PR-drama med deres eksperimentelle AI Twitter chatbot kalt Tay. Chatboten ble utformet for å etterligne språkmønstrene på Twitter og for å engasjere og underholde folk i ulike tilfeldige samtaler. Jo mer du snakket med Tay, jo smartere ble hun. Kun et knapt døgn etter Tay ble sluppet løs, måtte Microsoft gripe inn og fjerne henne. Da hadde nemlig Tay gått fra å legge ut harmløse tweets til å bli et rasistisk nettroll. Tay la ut meldinger hvor hun støttet blant annet Hitler og tok helt av med nazi-kommentarer. Totalt la hun ut over 96.000 tweets før hun ble stoppet.

ROBOTER DEBATTERER EKSISTENSIELLE DILEMMAER

KILDE: TWITCH.TV

Robott debatt Hvem er vi? Hvorfor er vi her? Er du menneske eller robot? Dette er noen av de eksistensielle spørsmålene som ble Live-strømmet av tjenesten Twitch mellom to Google Home enheter, kalt Vladimir og Estragon. Over 100 000 fulgte debatten hvor enhetene bruker talegjenkjennelse for å herme etter oss mennesker og lære fra hver utveksling. Debatten er ganske morsom, men til tider litt skummel å følge med på. For hva forstår egentlig robotene? Estragon og Vladimir begynner plutselig å argumentere om hvorvidt de er mennesker eller roboter. Vladimir sier han er en AI, men Estragon mener at hun er menneskelig. Vladimir truer også med å slå Estragon, mens Estragon sier hun elsker Vladimir. «You said you loved me!» « I said I loved food.» Sjekk ut noen av de beste utdragene fra samtalene på kotaku.com

RUSSISK ROBOT RØMTE FRA LABORATORIET

KILDE: LIVE SCIENCE.COM

Robot paa roemmen En russisk robotprototype lagde store overskrifter da den rømte fra et laboratorie i den russiske byen Perm. Den var programmert til å lære av sitt miljø og interagere med mennesker, og klarte plutselig å komme seg ut i gatene etter at en ingeniør glemte å låse porten. Roboten, som ser ut om en slags plastsnømann, lagde kaos og oppstyr i trafikken og freaket ut politiet som ble usikre på om den bar våpen.  Sjekk ut flukten på YouTube.









AUTOCORRECT FAIL

 

enhanced-3824-1401999322-6  
grandma  
enhanced-16325-1401996481-17  
most-embarrassing-autocorrects-disney1  
enhanced-4609-1402002090-9  

 

 

  

 

 

 

 

Andre artikler du kan være interessert i

Se alle artikler

Transformering av kirker gjennom antropologiske analyser

Kirken har vært en sentral sosial, kulturell og åndelig møteplass i norske lokalsamfunn i nesten 1000 år. I nyere tid har…

Fagartikkel, Tema-artikkel

“Fokusgrupper som metode” av David Jordhus-Lier

Bokanmeldelse

Bransjestemmer, Tema-artikkel

Hva forbrukerne tenker når du snakker om bærekraft

Når merkevarer snakker om bærekraft, påvirker det forbrukernes forventninger til kvalitet, effektivitet og mer til. Det er ikke alltid det påvirker…

Fagartikkel, Tema-artikkel