ChatGPT potrebbe chiederti di fornire una prova della tua identità se il suo nuovo sistema di previsione dell'età sospetta che tu abbia meno di 18 anni.
ChatGPT sta attualmente sviluppando un sistema di rilevamento automatico dell'età in grado di determinare se un utente ha meno di 18 anni. In alcuni casi, quando questo non può essere determinato, il chatbot potrebbe chiedere agli utenti di fornire un documento d'identità ufficiale per dimostrarlo.

OpenAI, l'azienda dietro ChatGPT, sta migliorando i suoi strumenti di controllo parentale ed è sottoposta a crescenti pressioni a causa del caso di alto profilo del sedicenne Adam Renn. La cui famiglia sostiene che ChatGPT abbia contribuito al suo suicidio.
"ChatGPT è pensato per i ragazzi dai 13 anni in su", ha spiegato il CEO Sam Altman in un post sul blog intitolato "Sicurezza, libertà e privacy degli adolescenti".
"Stiamo lavorando alla creazione di un sistema di previsione dell'età per stimare l'età in base al modo in cui le persone utilizzano ChatGPT", ha affermato. كتبIn caso di dubbi, procederemo con cautela e torneremo all'esperienza per i minori di 18 anni. In alcuni casi o Paesi, potremmo anche richiedere un documento d'identità; sappiamo che questo rappresenta una concessione alla privacy per gli adulti, ma crediamo che sia un compromesso valido.
In alcuni casi o Paesi potremmo anche richiedere un documento d'identità; sappiamo che questo rappresenta un compromesso per la privacy degli adulti, ma crediamo che sia uno scambio che vale la pena fare.
Altman prosegue spiegando che alcuni elementi delle risposte di ChatGPT saranno bloccati per gli adolescenti, come le risposte civettuole o le discussioni sull'autolesionismo. Afferma che l'azienda darà priorità alla sicurezza rispetto alla privacy e alla libertà degli adolescenti, spiegando che i minori necessitano di "protezione significativa".
Infine, aggiunge che se un adolescente esprime pensieri suicidi al chatbot, questo tenterà di contattare i genitori e di avvisarli. Se ciò non fosse possibile, ChatGPT tenterà di contattare le autorità.
"Riconosciamo che questi principi sono in conflitto e che non tutti saranno d'accordo sul modo in cui risolveremo questo conflitto", ha scritto Altman. "Si tratta di decisioni difficili, ma dopo aver parlato con gli esperti, riteniamo che questa sia la soluzione migliore e vogliamo essere trasparenti sulle nostre intenzioni".
Il dottor Brian Ramos, neuroscienziato e ricercatore sulla longevità presso Semplicemente nootropiciTom's Guide afferma che OpenAI sta prendendo la decisione giusta.
"Come neuroscienziato specializzato in longevità e benessere olistico, accolgo con favore misure di sicurezza come i sistemi di previsione dell'età e i controlli parentali", mi ha detto via e-mail.
Il cervello degli adolescenti è ancora in fase di sviluppo, il che li rende più vulnerabili sia ai benefici che ai rischi dell'intelligenza artificiale. ChatGPT può essere un utile strumento per conversazioni terapeutiche leggere e informali, aiutando ad alleviare lo stress, a meditare e a costruire sane abitudini.
Ma quando si tratta di profonde difficoltà psicologiche, soprattutto legate all'autolesionismo o a traumi, è sempre opportuno consultare professionisti. La tecnologia può supportare, ma non dovrebbe mai sostituire, una vera e propria terapia.
Controllo genitori di ChatGPT: cosa c'è dopo

I prossimi controlli parentali di ChatGPT consentiranno ai genitori di collegare i propri account a quelli dei figli adolescenti.
Ciò consente loro di implementare impostazioni per conto dei propri figli, come l'impostazione di "orari di blocco" in cui non possono utilizzare la piattaforma o la disattivazione della cronologia chat. Collegando gli account, ChatGPT sarà anche in grado di avvisare i genitori se rileva segnali di comportamenti preoccupanti o potenzialmente dannosi nelle sue interazioni con il bambino.
I commenti sono chiusi.