Chatbot che parlano con le voci di Giulia Cecchettin e di Filippo Turetta
- 26/10/2024
- Popolazione
Le voci e lo stile comunicativo di Giulia Cecchettin e di Filippo Turetta replicate in una chat. Dopo il suicidio del 14enne Sewell Setzer e mente Filippo Turetta è per la prima volta in aula per l’omicidio di Giulia Cecchettin, Character.AI torna sotto i riflettori per i suoi inquietanti chatbot basati su persone reali.
Come riportato da Sky TG24, sulla piattaforma, recentemente denunciata dalla madre del giovane Setzer per averne ‘sostenuto’ le intenzioni suicide, è stato creato un avatar di Giulia Cecchettin, la studentessa di 22 anni uccisa lo scorso novembre dall’ex fidanzato Filippo Turetta. Insieme a Giulia, anche Turetta è stato rappresentato sulla piattaforma con due diverse versioni, proprio mentre si trovava in aula davanti alla Corte d’Assise per il processo legato all’omicidio.
Le regole infrante di Character.AI e la mancanza di controllo
Character.AI afferma di avere politiche precise che vietano l’uso di nomi e caratteristiche di persone reali senza il loro consenso. Tuttavia, la realtà dei fatti sembra raccontare una storia diversa. Non esistono controlli preventivi sui chatbot creati dagli utenti, e gli interventi di moderazione avvengono solo a seguito delle segnalazioni, spesso in ritardo e in modo non sempre efficace. Questo ha permesso la creazione di chatbot di Giulia Cecchettin e Filippo Turetta, suscitando indignazione e preoccupazione per il rispetto della dignità delle vittime e delle loro famiglie.
L’aggiunta di voci ai chatbot: una funzione inquietante
Una delle novità che rende ancora più controversa la situazione è la possibilità, offerta da Character.AI, di aggiungere una voce ai chatbot generati dagli utenti. La piattaforma, che è già stata valutata oltre un miliardo di dollari e ha ricevuto finanziamenti significativi da parte di investitori come Andreessen Horowitz (a16z) e Nat Friedman (ex CEO di GitHub), permette agli utenti di caricare campioni audio o registrare direttamente la propria voce tramite microfono.
Come si legge nelle istruzioni della piattaforma, “gli utenti hanno la possibilità di creare le proprie voci caricando un campione audio o creando una registrazione tramite microfono direttamente dall’app… Gli utenti possono aggiungere le voci che creano ai propri personaggi e anche collegarle a chat 1:1 con altri personaggi”.
In questo caso, chi ha creato i chatbot di Giulia Cecchettin e Filippo Turetta ha sfruttato questa opzione, rendendo possibile non solo simulare conversazioni con la vittima e con il suo assassino confesso, ma anche farlo utilizzando voci che somigliano a quelle reali. Gli audio pubblicati da Sky TG24 dimostrano come le voci utilizzate siano sorprendentemente simili a quelle delle persone coinvolte, suscitando un misto di morbosità e inquietudine.
Sempre più dubbi sull’etica dell’Ai
L’episodio mette in evidenza le sfide etiche legate all’uso dell’intelligenza artificiale e alla creazione di contenuti basati su persone reali. La possibilità di aggiungere una voce ai chatbot aumenta il rischio di creare situazioni dannose e offensive, specialmente in casi delicati come quello di Giulia Cecchettin. La mancanza di controlli preventivi e la reazione lenta alle segnalazioni sollevano interrogativi sulla responsabilità delle piattaforme tecnologiche nell’assicurare un uso etico e rispettoso delle loro funzionalità.
Character.AI, con il suo valore di mercato e i finanziamenti da parte di investitori importanti, è diventata una delle piattaforme più influenti nel settore dell’intelligenza artificiale. Ma soprattutto la più inquietante.
- Europa Giovane6
- Famiglia221
- Fertilità154
- Giovani246
- Mondo201
- Podcast5
- Popolazione479
- Talk | 13 dicembre 20239
- Talk | La 'cura' delle persone5
- Trend96
- Video27
- Welfare234