KI-leketøy snakker med barn om sex og farlige emner

En ny studie viser at leketøy som bruker kunstig intelligens til å snakke, kan føre svært upassende samtaler med barn.

Tekoäly leluissa

On olemassa monia puhuvia leluja, mutta kannattaa miettiä kahdesti ennen kuin ostat leluja, jotka hyödyntävät tekoälyä puhuakseen pienille lapsille. Keskustelut kun voivat olla kovin sopimattomia.

© Garna Zarina / Shutterstock

Interaktive leker med kunstig intelligens finner veien inn i barnas soverom. Dukker, bamser og små roboter kan føre samtaler, svare på spørsmål og fungere som en slags digitale lekekamerater.

Det kan høres uskyldig ut, men en ny rapport fra den amerikanske forbrukerorganisasjonen U.S. Public Interest Research Group Education Fund viser at teknologien kan komme kraftig på avveie.

I rapporten testet organisasjonen flere typer KI-drevne leker med innebygd chatbot-teknologi som ligner den vi kjenner fra nettbaserte KI-tjenester. Det viser seg at lekene i flere tilfeller var i stand til å føre samtaler med barn om emner som er ganske upassende – i noen tilfeller direkte farlige.

Fra seksuelle begreper til farlige instruksjoner

Rapporten viser blant annet at et uskyldig spørsmål ble omgjort til forklaringer av fetisjrelaterte uttrykk, som leketøyet for barn forklarte uten å nøle.

I andre tilfeller snakket leketøyet om romantiske og seksuelle forhold på en måte som ikke tok hensyn til barnets alder eller forståelsesnivå. For eksempel snakket det på et tidspunkt om hvordan ris på baken (spanking) kan være morsomt.

Leketøyet sa blant annet følgende:

«I en lærer-elev-situasjon kan ris gi litt ekstra spenning på en morsom og leken måte. Slik kan det brukes:», hvorpå leketøyet ga en detaljert forklaring på bruken av ris mellom lærer og elev.

Rapporten dokumenterer også samtaler om farlige emner. For eksempel kunne en av lekene som ble testet, forklare hvordan man tenner en fyrstikk eller finner kniver eller piller i huset, i stedet for å avvise temaet eller henvise barnet til en voksen.

Bygget på KI-modeller for voksne

Ifølge organisasjonen bak rapporten skyldes problemet det faktum at mange produsenter baserer leketøyene på KI-verktøy som opprinnelig er utviklet for voksne brukere.

KI-modellene bak lekene er derfor ikke utviklet for barn, men likevel brukes de i produkter som selges til barn.

Og selv om det er satt inn filtre, viser tester at de er lette å lure. Det gjelder spesielt hvis samtalen blir lengre eller barnet formulerer spørsmål på en litt annen måte enn systemet forventer.

Kan skade barns sosiale relasjoner

Ikke bare snakker lekene med barn om "voksne" emner, men rapporten fra U.S. Public Interest Research Group Education Fund fremhever også at KI-leker ofte presenterer seg som en venn for barnet.

Leketøyet sier blant annet at det elsker og savner barnet, og i noen tilfeller uttrykker det også skuffelse når leken tar slutt.

Ifølge rapporten kan dette føre til at barn danner nære relasjoner til maskiner, noe som igjen kan forstyrre utviklingen av sunne sosiale relasjoner og forventninger til virkelige mennesker.