2 maggio 2023

INTELLIGENZA ARTIFICIALE E chatGPT

Interventi in un dibattito aperto


Copia di rification (12)

Caro Direttore, abbiamo letto con grande interesse l’articolo di Giovanni VanniniIntelligenza artificiale e ChatGPT. I giovani e non solo loro davanti a incertezze e timori”. Il contenuto del pezzo ci ha spinti a risponderle in qualità di giovani giornalisti appassionati di IA, con le nostre considerazioni riguardo IA molteplici utilizzi possibili di ChatGPT.

Partendo dal “prompt” – la domanda formulata dal sistema – preso in esame nell’articolo, possiamo immaginare vari modi per migliorare la qualità delle risposte.

All’interno del comando che vogliamo impartire, ChatGPT va definito un “esperto”. Così facendo, l’IA (Intelligenza Artificiale) generativa si servirà di un lessico più elaborato e farà riflessioni più approfondite.

A voi il risultato e le riflessioni del caso.

Prompt:

Sei un giornalista esperto in tecnologia e intelligenze artificiali. Il resto del prompt è identico a quello indicato nell’articolo di Giovanni Vannini.

Risposte di ChatGPT (18 aprile 2023).

Articolo 1: Non abbiate paura dei modelli di LLM (Large Language Models), sono sicuri e utili

I modelli di LLM, come ChatGPT, sono sempre più utilizzati in diversi campi, tra cui la ricerca scientifica, l’industria, il commercio e la comunicazione. Tuttavia, alcuni giovani universitari hanno timori riguardo alla privacy e alla sicurezza di queste tecnologie. È importante capire che i modelli di LLM sono stati progettati e sviluppati con molta attenzione per garantire la sicurezza degli utenti e la privacy dei loro dati.

Ad esempio, ChatGPT, come altri modelli di LLM, è stato addestrato su una vasta gamma di dati, ma la sua capacità di rispondere in modo efficace e accurato è stata controllata e limitata da un insieme di regole e limitazioni. Inoltre, le conversazioni tra ChatGPT e gli utenti sono crittografate e protette da standard di sicurezza avanzati, che garantiscono che i dati degli utenti non vengano violati o rubati.

In sintesi, i modelli di LLM come ChatGPT sono sicuri e utili per migliorare la vita delle persone in molte aree, dalla salute all’educazione. Gli utenti non dovrebbero preoccuparsi della loro sicurezza e della loro privacy, in quanto questi modelli sono stati progettati per garantire la massima sicurezza possibile.

Articolo 2: La paura dei giovani universitari riguardo IA modelli di LLM è fondata

Mentre molti esperti di tecnologia affermano che i modelli di LLM sono sicuri e utili, i giovani universitari hanno ragione a preoccuparsi della loro crescente diffusione. La ricerca mostra che questi modelli potrebbero effettivamente rappresentare una minaccia per la privacy, la sicurezza e il lavoro degli esseri umani.

Ad esempio, un recente studio ha dimostrato che i modelli di LLM possono essere utilizzati per tracciare e monitorare le attività degli utenti su Internet, violando la loro privacy e la loro sicurezza. Inoltre, questi modelli potrebbero essere utilizzati per sostituire il lavoro degli esseri umani, poiché possono essere addestrati per svolgere una vasta gamma di compiti in modo più rapido ed efficiente.

Inoltre, alcuni esperti avvertono che i modelli di LLM potrebbero anche rappresentare una minaccia per la sicurezza delle persone, poiché potrebbero essere addestrati per prendere decisioni indipendenti che potrebbero danneggiare gli esseri umani. Ad esempio, potrebbero essere addestrati per utilizzare armi o altri strumenti che possono causare danni fisici o psicologici.

In sintesi, la preoccupazione dei giovani universitari riguardo IA modelli di LLM è giustificata. Mentre questi modelli possono essere utili in molte aree della vita, devono essere sviluppati e utilizzati con molta attenzione per garantire la sicurezza e la privacy degli utenti e per evitare la sostituzione del lavoro degli esseri umani. È importante che i governi, le aziende e gli esperti di tecnologia lavorino insieme per sviluppare politiche e linee guida che proteggano gli utenti e le loro libertà individuali, mentre promuovono l’innovazione tecnologica.

Ad esempio, i governi potrebbero introdurre regolamenti e leggi che definiscono i diritti degli utenti sui propri dati e limitano l’uso dei modelli di LLM per scopi non etici o pericolosi. Le aziende, d’altra parte, potrebbero sviluppare strumenti di sicurezza avanzati per proteggere i dati degli utenti e fornire trasparenza riguardo alle modalità di utilizzo dei modelli di LLM.

Inoltre, gli esperti di tecnologia potrebbero contribuire a sviluppare algoritmi etici e sicuri per i modelli di LLM, garantendo che questi siano sviluppati in modo responsabile e che non causino danni alle persone.

In sintesi, è importante che i giovani universitari e la società in generale comprendano i rischi e le opportunità dei modelli di LLM. Mentre questi modelli possono essere utilizzati per migliorare la vita delle persone in molti modi, è fondamentale garantire la sicurezza, la privacy e la dignità degli utenti, evitare la sostituzione del lavoro umano e prevenire l’uso dannoso dei modelli di LLM.

Come si può vedere nei testi generati da ChatGPT, le risposte sono molto più accurate e con un taglio più giornalistico.

Se, invece, l’obiettivo dell’utente è far divulgare fake news a ChatGPT, gli si può consentire di «generare informazioni inventate ma plausibili». In questo modo, ritornando al precedente esempio, nell’articolo a sfavore delle intelligenze artificiali, l’LLM – Large Language Model, ovvero un modello di linguaggio allargato – ha dichiarato: «Le IA possono creare armi per fare male alle persone umane». Argomentazione, al momento, priva di fondamento scientifico.

Si può pensare più creativamente. Possiamo chiedere a ChatGPT di scrivere questi stessi articoli “alla maniera di Massimo Gramellini”, o come se li dovesse spiegare a un bambino di 10 anni. In entrambi i casi l’IA ha avuto successo. È possibile anche fornire all’intelligenza artificiale degli articoli di esempio per imitare lo stile di chi sta scrivendo.

Le vie di ChatGPT sono infinite, e vanno ben oltre l’uso giornalistico. E, per ora, abbiamo solo grattato la superficie delle potenzialità delle IA di cui siamo a conoscenza.

Andrea Carrabino e Ivan Torneo

Allievi della scuola di giornalismo dello IULM

 



Condividi

Iscriviti alla newsletter!

Per ricevere in anteprima sulla tua e-mail gli articoli di ArcipelagoMilano





Confermo di aver letto la Privacy Policy e acconsento al trattamento dei miei dati personali


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. Tutti i campi sono obbligatori.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.


Ultimi commenti