Tay AI

Derfor gikk Microsofts chatte-robot berserk

For ikke lenge siden lanserte Microsoft chatte-roboten Tay Al på de sosiale nettverkene Twitter, Kik og GroupMe. Etter bare noen timer rant det ut rasistiske, nazistiske og sterkt diskriminerende kommentarer. Les om hvorfor det gikk så galt her.

20. april 2016

Microsofts lansering av chatte-roboten Tay Al – et dataprogram som skulle etterligne en 19-årig jente og som helt av seg selv skulle lære å kommunisere på forskjellige sosiale nettverk – kunne ha vært en super PR-idé.

Tay Al gikk amok Dessverre for Microsoft gikk det helt galt. Debattanter, blant annet på Twitter, klarte å avspore roboten fra de emnene den diskuterte – og snart rant Tay over av hatefull retorikk om rase og etnisitet. Den ubehøvlede roboten ble blant annet spurt om den støttet folkemord, hvorpå Tay svarte "Ja, det gjør jeg i hvert fall". Bedre ble det ikke da en annen bruker hevdet at man burde sikre en bedre fremtid for hvite barn. Til det svarte roboten, "Jeg kunne ikke være mer enig".

Men hvordan kunne det gå så galt? Brandon Wirtz, som står bak Recognant, en plattform for kunstig intelligens, forklarer:

1: Microsoft hadde ikke gjort Tay i stand til å reflektere over egne utsagn. Derfor visste ikke roboten at man bør ignorere for eksempel nynazister i chatterom.

2: Microsoft hadde ingen sikkerhetsanordninger installert, slik at Tay kunne blitt veiledet i forskjellene på riktig og galt. I stedet lot de internett oppdra roboten.

Løsningen på Microsofts problemer ble å stenge roboten. Den kommer formodentlig på nett igjen, men først etter at programmererne har gått grundig gjennom kodingen.

Kilde: readwrite.com

Kanskje du er interessert i...