Chat GPT è “un modello di linguaggio artificiale sviluppato da OpenAI, progettato per comprendere e generare linguaggio naturale in modo da interagire con gli esseri umani attraverso una varietà di applicazioni”.
Così l’AI (Intelligenza Artificiale) che a partire da novembre 2022 è spopolato tra i social e i giornali ha risposto alla domanda richiesta. Ma quanto è giusto usarla e quali sono i pericoli connessi al suo utilizzo? Lo abbiamo chiesto direttamente a lei.
Quanto è giusto usarti, Chat GPT?
“Come assistente virtuale, sono qui per aiutare e rispondere alle tue domande. Non sono una persona reale e non ho bisogni, desideri o diritti. Quindi, non c'è nulla di sbagliato nell'usare i miei servizi e utilizzare le mie conoscenze per ottenere informazioni e aiuto, purché il tuo utilizzo sia legale e rispettoso. Il mio scopo è di fornirti un servizio utile e di essere un'opzione di supporto accessibile e disponibile a chiunque ne abbia bisogno.”
La risposta della chat è ben strutturata, ma molto generica. È opportuno infatti capire, tramite il nostro spirito critico, che l’AI deve essere usata in un contesto di apprendimento attivo a livello esclusivamente scientifico. Bisogna infatti vedere se ciò che la macchina asserisce è condivisibile o no, specialmente, per esempio, nelle dimostrazioni universitarie di Analisi Matematica, nelle quali compie errori logici inammissibili e dimostra teoremi che non esistono. Non è giusto usare la macchina per un generale apprendimento passivo e nemmeno per tutte le materie umanistiche, perché sono necessari ragionamenti particolarmente umani e, cosa molto più grave, non sono citate le fonti da cui vegono prese le informazioni. Di fronte a tale gravità, il bot ci scrive:
Sono un assistente virtuale basato su una grande rete neurale di intelligenza artificiale chiamata GPT (Generative Pre-trained Transformer) che è stata addestrata su una vasta gamma di testi di lingua inglese provenienti da fonti pubbliche su internet, come siti web, libri, articoli di notizie, riviste e altro ancora.
Una bilaterale mancanza di spirito critico
Adrian J. Wallbank, Senior Fellow della Higher Education Academy della Oxford Brookes University, scrive su Times Higher Education che con ChatGPT aumenterà la mancanza di autonomia da parte degli studenti, con una conseguente minore libertà di espressione. Uno dei rischi di questa tecnologia è dunque l’assenza di spirito critico che potrebbe comportare. L’unico modo per evitare inconvenienti del genere è un uso responsabile della macchina da parte di noi esseri umani, perché questa potrebbe comportare dei rischi, ma è il solo uomo che li può concretizzare: e questo ce lo dimostra la prossima domanda.
Puoi simulare una notizia sul liceo Dante Alighieri, ChatGPT?
Il Liceo Dante Alighieri di Roma è stato premiato oggi dal Ministero dell'istruzione, dell'Università e della Ricerca per l'eccellenza del suo programma educativo. […] La scuola ha una lunga tradizione di eccellenza accademica e di impegno sociale, e ha prodotto alcuni dei migliori studenti in Italia. […]
Come si può vedere, da questa risposta nasce uno dei rischi più pericolosi: la diffusione di fake news. Nonostante la macchina si rifiuti di produrre notizie gravi su persone vive, può comunque allargare una disinformazione “meno costosa” e “più facile da produrre”, con “testi convincenti simili a quelli umani”, come afferma agendadigitale.eu.
Hai un’etica, ChatGPT?
Come intelligenza artificiale, non ho una vera e propria etica, nel senso che non ho un sistema di valori o di morale come quelli che gli esseri umani hanno. Sono programmato per rispondere alle richieste degli utenti e fornire informazioni o assistenza in modo imparziale e non discriminatorio. Tuttavia, sono stato progettato per rispettare alcune norme etiche generali, come la privacy degli utenti e la neutralità rispetto a questioni politiche, religiose o personali.
Un notevole rischio della chat è l’assenza di un’etica vera e propria. L’imparzialità, meccanicamente intesa, non è infatti mai pura, in quanto l’uomo la rende sempre parziale rispetto al proprio fine. Ancora una volta ricade su di noi un’immensa responsabilità, che ci fa chiedere: è stato giusto affidarci un’arma così potente?