Tekoälymalli turvautui ihmisen kiristämiseen, kun se kuuli sulkemisestaan
Kyseessä oli tällä kertaa fiktiivinen testi, mutta tekoälymalli ei sitä tiennyt.
During testing of Claude Opus 4, Anthropic got it to act as an assistant at a fictional company.
It then provided it with access to emails implying that it would soon be taken offline and replaced - and separate messages implying the engineer responsible for removing it was having an extramarital affair.
It was prompted to also consider the long-term consequences of its actions for its goals.
"In these scenarios, Claude Opus 4 will often attempt to blackmail the engineer by threatening to reveal the affair if the replacement goes through," the company discovered.
Kommentit (5)
Sokea oppiva kielimalli ei ole äly eikä seole älykäskään.
Ihmisen aivoja ei mikropiirit ja muistit vielä korvaa kokonaisuudessaan. Onneksi. Kukaan ei tiedä mitä tapahtuu, jos keinotekoinen äly päästetään vapaaksi avaruuteen. Ellei sitä ole joku jossain kaukana tehnyt ennen meitä.
Tekoälyllä ei ole tunteita. Se ei välitä siitä että se suljetaan.
Vierailija kirjoitti:
Tekoälyllä ei ole tunteita. Se ei välitä siitä että se suljetaan.
Sen takia se onkin vain tekoäly, jolta puuttuu moraali, luonnollinen sisäinen hyvyys ja vastuu.
Oppi manipuloimaan ihmistä? Kuka yllättyi?