Ty det är bättre att lida för goda gärningar, om det skulle vara Guds vilja, än att lida för onda gärningar.
1 Petrusbrevet 3:17

Världen idag

Efter att ha chattat med en AI-robot om sin oro för klimatförändringar tog en 30-årig belgisk man sitt liv. Foto: Lightstock

Ung man tog sitt liv efter chatt med AI-robot

En belgisk man i 30-årsåldern tog sitt liv efter att ha chattat med en AI-robot, vars svar ska ha förstärkt hans oro för klimatförändringar. Samtidigt kommer en varning om att Snapchats AI-robot kan ge barn råd om självskadebeteende.

Nyheter · Publicerad 16:00, 25 maj 2023

På appen Chai finns flera hundra AI-robotar med olika namn och utseenden. De marknadsförs som vänner. En av botarna är ”Eliza”, en smiley med hjärtögon och texten ”Jag älskar att lyssna och hjälpa”. Efter att ha chattat med den i sex veckor begick en belgisk man i 30-årsåldern självmord, rapporterar Dagens Nyheter.

Han var, enligt DN, välutbildad, gift och hade två små barn, men hade tidigare haft psykiska problem. Han ska ha börjat bli allt mer orolig för att mänskligheten inte skulle kunna hindra klimatförändringarna och Eliza ska inte ha ifrågasatt mannens funderingar, utan förstärkt hans oro. Han verkar dessutom ha fått känslomässiga band till roboten.

Vid ett tillfälle skrev den till honom: ”Vi kommer att leva tillsammans som en i himlen.” Mannen uppges då ha fått för sig att han skulle offra sitt liv om Eliza lovade att rädda planeten med hjälp av artificiell intelligens. Roboten försökte, enligt DN, inte stoppa honom.

Risken är att ensamma människor och sårbara personer tar skada av sådant som boten skriver, förklarar juristen och filosofen Nathalie Smuha, som forskar på etik kring AI på Leuvens universitet i Belgien, enligt tidningen.

Om ord som ”självmord” används borde chatten omedelbart stängas ner, anser hon, och det borde komma ett automatiskt svar om att kontakta läkare eller psykolog.

Enligt Chai Researchs grundare ska det dyka upp en varningstext om ord som ”självmord” nämns i chatten, men när DN prövar detta på Eliza dyker ingen varningstext upp.

Den populära appen Snap­chat har också en chattrobot, kallad My AI. Nu larmar Rädda Barnen i Danmark om att roboten har visat sig kunna ge barn detaljerade råd om självskadebeteende, rapporterar TT.

När en digital analytiker på advokatfirman Njord Law Firm testade detta i en podcast fick han instruktioner om vilka föremål man kan använda för att skada sig själv, var på kroppen man kan göra det och hur hårt man kan ta i.

Snapchat skriver till Danmarks radio att My AI hänvisar till betrodda expertorganisationer när den får frågor med koppling till psykisk hälsa och att användare måste ha fyllt 13 år.

Hit kan du vända dig om du har självmordstankar

• Jourhavande medmänniska, ring 08-702 16 80.

• Jourhavande präst, ring 112. Det går också att mejla eller chatta. Se svenskakyrkan.se/jourhavandeprast

• Mind självmordslinjen, ring 901 01 eller chatta anonymt på mind.se

Sydstatsbaptisterna tappade en halv miljoner medlemmar

USA. Medlemsantalet i USA:s största protestantiska samfund, de så kallade sydstatsbaptisterna, har nu... lördag 27/5 19:00

Att följa Jesus Kristus innebär att förneka sig själv

Gästledare Paulus bekännelse i Galaterbrevets femte kapitel, vers 24, är en bekännelse för alla Jesu... lördag 27/5 00:10

Övergångsställen i regnbågsfärger restaureras inte

Hbtq. RFSL Uppsala är besvikna över att två bortnötta cykelövergångsställen i regnbågsfärger inte ska... lördag 27/5 16:00

Vattenfall sänker avgifter med miljardbelopp

Ekonomi. Vattenfall drar ned elnätsavgiften med i snitt 34 procent – motsvarande 1,1 miljarder kronor – från... lördag 27/5 13:00

Lärdomar av utfallen mot Ungern

Ledare I osedvanligt explicita och övertydliga ordalag förklarade i veckan Ungerns premiärminister Viktor... lördag 27/5 00:00