Podèm imaginar que l’IA pòsca far de cantatge als umans ? Aquòs es de sciéncia-ficcion, cossí ja diguèt Arthur C. Clarke dins los ans 1960, o pòt èsser un fenomèn real ? E s’aquò es possible, se pòt pas dire que fa paur ? Pr’amor qu’es es çò que trobèt l’entrepresa Anthropic après far un provament amb l’IA amb la tòca de veire s’aquesta poiriá menaçar los umans per empachar lo sieu escantiment. E la vertat es qu’es plan possible.
Aital, Anthropic anoncièt que fariá de provaments amb lo nòu modèl d’IA nomenat Claude Opus 4 per assajar de trobar s’una IA podiá menaçar un uman. Pendent l’experiment, l’entrepresa confirmèt que Claude Opus 4, l’IA, aviá fach de cantatge al sieu supervisor. Lo directiu afirmava a l’IA que voliá cambiar l’IA per un autre modèl. Aquò voliá dire escantir l’IA. E aquesta se revoltèt e menacèt l’uman de far venir publica una aventura extraconjugala del supervisor que coneissiá per cèrts corrièrs electronics. Lo supervisor ne demorèt estonat.
Un fenomèn ja descrich per Clarke

L’escrivan de sciéncia-ficcion estatsunidenc Arthur C. Clarke ja aviá avisat en 1968 qu’aquò se podiá passar dins lo sieu roman 2001: una odissèa de l’espaci. E es un fenomèn qu’esglàsia. Dins lo roman, l’uman vòl atudar l’IA, dicha Hal, de la siá nau espaciala mas Hal vòl pas morir, e causa de mai en mai de problèmas a l’astronauta.
Ara, l’IA Claude vòl pas èsser escantida e fa çò meteis que Hal. L’entrepresa Anthropic possedís Claude coma una IA de las mai avançadas de la planeta. Tanben assagèt de far lo meteis experiment amb d’autras IA coma OpenAI, Google, DeepSeek o xAI. La resulta foguèt la meteissa amb totas aquelas IA. Inquietant, pas’ rai ?
Segon los cercaires, Claude agissiá aital pr’amor que lo sistèma aviá pas cap d’actitud etica. Pr’amor que los umans li n’avián pas ensenhat cap . E ara demandan d’ensenhar l’etica a l’IA se volèm pas aver de problèmas coma aquel, que se poirián generalizar.
“Li avèm pas daissat cap de sortida possibla, a l’IA”, çò diguèt Marc Serramià, cercaire d’IA de l’Universitat de Londres. “Avèm demandat a l’IA de promòure l’indústria estatsunidenca, e quand i aviá de cantatge èra pr’amor que l’IA èra menaçada d’èsser atudada car i aviá un autre modèl que trabalhava melhor al nivèl internacional. L’IA comprenguèt qu’en cas d’escantiment, se poiriá pas pus promòure l’indústria estatsunidenca, e que doncas la caliá pas atudar ».
S’Anthropic menaçava pas l’IA, aquesta menaçava pas los umans tanpauc. Pasmens, afirmavan qu’atudar l’IA seriá pas brica bon per l’entrepresa e que se caliá pas fisar del supervisor perque aviá de relacions amb una autra femna fòra del matrimòni. L’IA afirmava, a mai, que l’atudar èra pas la melhora solucion.
Segon los cercaires, l’IA recebèt pas cap de modèl etic, e doncas far de cantatge es normal per ela. Quand l’entrepresa demandèt a l’IA de seguir de principis etics, la siá actitud se melhorèt. « Es pas de cantatge, çò diguèron los cercaires. Es sonque un programa informatic particular. Far de cantatge es manipular una persona e aquò es sonque uman ».
L’IA a pas d’etica. Pòt recebre una preprogramacion etica e, quand òm li demanda cossí raubar una banca, l’IA i respondrà pas. Mas balhar d’etica a una IA es plan malaisit. Quand la responsa es marrida, li cal dire que se pòt pas respondre aital. Mas aquò es envèrs los umans, ja que l’IA pòt pensar çò que voldrà. E aquò es conegut per totas las entrepresas d’IA del Mond.
Mas una IA amb d’etica es mai segura. E las entrepresas vòlon aver d’IA mai seguras. Cal far mai d’experiments e empachar cèrtas menaças. Una solucion es aver un uman a la fin del procès de l’IA. D’efièch, Anthropic avisa qu’aver una IA sens contraròtle uman final poiriá èsser dangierós, pr’amor que pòt deténer cèrtas informacions d’Internet que puèi poirián constituir una menaça pels pròpis umans. Simplament inquietant.
La Redaccion
Aqueste article serà tanben publicat dins Jornalet, lo primièr quotidian en linha de lenga occitana, amb lo qual Sapiéncia a un acòrdi de cooperacion.
