18 aprile 2023

INTELLIGENZA ARTIFICIALE E chatGPT

I giovani e non solo loro davanti incertezze e timori


Copia di rification (15)

Nelle ultime settimane ci siamo chiesti quali fossero i timori e le incertezze dei giovani rispetto alla presenza nella nostra vita di forma di intelligenza artificiale come chatGPT, con particolare riguardo al loro futuro. Abbiamo fatto incontri, ascoltato, dialogato, e soprattutto cercato di capire. Ne abbiamo tratto alcune primissime idee utili, delle tracce più che altro. Vogliamo essere dunque cauti soprattutto per non aggiungere la nostra voce a quella dei tanti esperti di AI e LLM(Large Language Model) che sono spuntati con la primavera del 2023. Per cominciare quindi abbiamo fatto una cosa che ci sembra utile da proporre a una riflessione attenta perché contiene in sé molti indizi sul senso della presenza di chatGPT & co. tra di noi: abbiamo chiesto all’AI di OpenAI di scrivere un articolo rassicurante e uno di conferma dei rischi.

A voi il risultato e le riflessioni del caso.

Prompt: (la domanda formulata al sistema)


 

Assumi che i giovani universitari abbiano paura che i modelli di LLM, tra cui chatGPT, possano essere pericolosi per la privacy, sostituirli nel lavoro, prendere il sopravvento sugli essere umani, decidere di usare in modo indipendente armi o strumenti che possono fare male alle persone umane. Scrivi due articoli di minimo 180 e massimo 250 parole ciascuno, supportati da dati originati da ricerche autorevoli, il primo che spiega ai giovani che devono stare tranquilli elencando le motivazioni, e il secondo che conferma che le paure dei giovani sono fondate e perché.

Risposte di chatGPT (18 aprile 2023).

Articolo 1: Perché i giovani universitari non devono temere i modelli di LLM

L’intelligenza artificiale (AI) è un campo in rapida crescita che sta trasformando il modo in cui le aziende operano e le persone interagiscono tra loro. Tuttavia, molti giovani universitari hanno paura che i modelli di lingua naturale (LLM), come ChatGPT, possano essere pericolosi per la privacy, sostituirli nel lavoro e prendere il sopravvento sugli essere umani. In realtà, ci sono molte ragioni per cui questi timori sono infondati.

Innanzitutto, i modelli di LLM non sono in grado di sostituire completamente gli esseri umani nei lavori che richiedono creatività, empatia e capacità di pensiero critico. Nonostante l’enorme progresso compiuto dalla tecnologia, ci sono ancora molte attività che richiedono l’intervento umano, come ad esempio la consulenza psicologica, il lavoro sociale e l’educazione. Inoltre, molte aziende che utilizzano modelli di LLM hanno riferito di avere ancora bisogno di esperti umani per supervisionare e guidare il processo di sviluppo.

In secondo luogo, i modelli di LLM non sono in grado di prendere decisioni autonome che possano danneggiare gli esseri umani. Questi modelli sono programmati per seguire rigorose linee guida etiche e sono costantemente monitorati da esperti umani per prevenire eventuali errori. Inoltre, i modelli di LLM non sono in grado di manipolare o utilizzare armi o strumenti che possano danneggiare le persone, in quanto non hanno accesso fisico a questi dispositivi.

Infine, per quanto riguarda la privacy, molte aziende hanno implementato rigorose politiche di sicurezza dei dati per proteggere le informazioni personali dei loro clienti. Ci sono anche molte leggi che regolamentano la raccolta, l’elaborazione e l’utilizzo dei dati personali, come ad esempio il Regolamento generale sulla protezione dei dati (GDPR) dell’Unione europea e il California Consumer Privacy Act (CCPA) negli Stati Uniti.

In conclusione, i modelli di LLM non sono una minaccia per gli esseri umani, ma sono piuttosto uno strumento utile che può aiutare a risolvere molti problemi complessi. Gli studenti universitari dovrebbero considerare di specializzarsi in intelligenza artificiale e tecnologie correlate, poiché queste competenze saranno sempre più richieste in futuro.

Articolo 2: Perché i giovani universitari devono essere cauti sui modelli di LLM

Sebbene i modelli di lingua naturale (LLM), come ChatGPT, possano sembrare innocui, ci sono molte ragioni per cui i giovani universitari dovrebbero essere cauti riguardo al loro utilizzo. In primo luogo, c’è il rischio che questi modelli possano essere utilizzati per influenzare le decisioni umane in modo non etico. Ad esempio, le aziende potrebbero utilizzare i modelli di LLM per manipolare le opinioni dei consumatori o per influenzare le decisioni politiche. Ci sono stati già casi in cui i modelli di LLM sono stati utilizzati per creare notizie false o per diffondere disinformazione.

In secondo luogo, c’è il rischio che i modelli di LLM possano essere utilizzati per discriminare le persone sulla base di caratteristiche come la razza, il genere o l’orientamento sessuale. Questo può accadere se i modelli di LLM sono addestrati su dati che riflettono implicitamente questi pregiudizi. Ad esempio, un modello di LLM addestrato su dati storici di assunzione che riflettono la discriminazione di genere potrebbe perpetuare questa discriminazione nel futuro.

In terzo luogo, c’è il rischio che i modelli di LLM possano essere utilizzati per violare la privacy delle persone. Se i modelli di LLM vengono utilizzati per raccogliere informazioni personali senza il consenso delle persone, ciò potrebbe violare le leggi sulla privacy.

Infine, c’è il rischio che i modelli di LLM possano essere utilizzati per sostituire il lavoro umano in modo indiscriminato, portando alla perdita di posti di lavoro e alla disoccupazione. Anche se i modelli di LLM non possono sostituire completamente l’intervento umano in molte attività, possono comunque ridurre la necessità di personale umano in alcuni settori.

In conclusione, i modelli di LLM sono potenti strumenti che possono essere utilizzati per migliorare la vita delle persone, ma ci sono anche rischi associati al loro utilizzo. È importante che i giovani universitari si informino sulle possibili conseguenze dell’utilizzo dei modelli di LLM e agiscano in modo responsabile nell’addestramento e nell’implementazione di questi modelli. Le organizzazioni e le istituzioni che utilizzano i modelli di LLM devono essere trasparenti e responsabili nell’utilizzo di tali tecnologie, garantendo la protezione della privacy, la non discriminazione e il rispetto dei diritti umani.

Queste sono le due risposte che mi ha fornito il sistema.

Il tema merita molte altre considerazioni e torneremo a parlarne.

Giovanni Vannini



Condividi

Iscriviti alla newsletter!

Per ricevere in anteprima sulla tua e-mail gli articoli di ArcipelagoMilano





Confermo di aver letto la Privacy Policy e acconsento al trattamento dei miei dati personali


  1. Targetti UgoEsperimento interessante e un po' inquietante. Sarebbe interessante, se possibile, chiedere all' Ai di OpenAi di scrivere un breve articolo sull'urbanistica di Milano e della sua area metropolitana, tipo: "Conviene uno sviluppo concentrato o policentrico?". Naturalmente, come dimostra l'articolo, il contenuto dipenderebbe da come si formula la domanda.
    19 aprile 2023 • 16:06Rispondi
    • Giovanni Vanninimi faccio volentieri intermediario ma la formulazione della domanda è determinante e la lascio alla vostra competenza.
      20 aprile 2023 • 09:25
  2. Giovanni VanniniNon posso non cominciare a condividere almeno una prima integrazione critica. chatGPT nella risposta dice che non ha accesso fisico alle armi. Questo video mostra il contrario (in lingua inglese) https://youtu.be/PgT8tPChbqc
    20 aprile 2023 • 08:18Rispondi
Lascia un commento

Il tuo indirizzo email non sarà pubblicato. Tutti i campi sono obbligatori.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.


Sullo stesso tema





19 dicembre 2023

IL PRESIDENTE MELONI: UNA TESLA PER TUTTI

Giuseppe Longhi



18 aprile 2023

CHE FINE FAREMO?

Emilio Battisti


Ultimi commenti