Da quando chatGPT è stato rilasciato si sono viste le cose più disparate, una su tutte è l’uso improprio come motore di ricerca, leva per scatenare successivamente polemiche e critiche rivolte in massa all’intelligenza artificiale e alla sua poca affidabilità.
È proprio così: chatGPT non è un motore di ricerca! La goccia che ha fatto traboccare il vaso e ci ha spinti a scrivere questo articolo è stato un episodio paradossale e portato all’onor di cronaca dal New York Times qualche giorno fa e rilanciato anche qui in Italia (riportiamo qui l’articolo di Fan Page).
È il caso dell’avvocato Steven A. Schwartz – con oltre 30 anni di esperienza – che nella sua memoria difensiva si è fatto assistere da chatGPT nel chiedere una lista di sentenze precedenti simili al caso subito dal suo assistito (ricordiamo che negli Stati Uniti il sistema giuridico è basato sul Common Law: la legge si forma attraverso le nuove decisioni, e l’affinamento di decisioni precedenti, prese dai giudici e dai tribunali nel corso del tempo). Peccato che non avesse verificato la veridicità dei fatti e difatti nessuno in aula riusciva a trovare quei casi che lui stava citando.
In sintesi l’avvocato ha confessato di essersi affidato a chatGPT per integrare la sua ricerca, si è rammaricato del suo operato e molto probabilmente verrà sanzionato dal giudice per negligenza.
Che cos’è l’IA generativa
L’intelligenza artificiale generativa è una tipologia di intelligenza artificiale che è in grado di generare testi, video, immagini, musica a partire da un prompt. I sistemi di intelligenza artificiale generativa utilizzano particolari modelli statistici “di una distribuzione congiunta di una variabile osservabile e di una variabile dipendente, che nel contesto del data mining è detta variabile target” (fonte: Wikipedia).
Uno di questi modelli statistici che viene utilizzato sono i modelli linguistici di grandi dimensioni – comunemente chiamati in inglese Large Language Models, LLM – che partono da un dataset per fare addestramento.
Il prompt di richiesta per sistemi come quelli di chatGPT o Bard è generalmente formato in linguaggio naturale, cioè in linguaggio utilizzato dall’umano per parlare.
È proprio questa facilità di accesso al dato che ha confuso il modo in cui collaborare con chatGPT, facendo credere alle persone di parlare con una persona fisica o un esperto su certe materie specifiche e cominciare a interrogarlo o a fare ricerche.
Perché chatGPT non è un motore di ricerca
chatGPT ha una base di conoscenza di apprendimento fino all’anno 2021 e la knowledge base utilizzata per il training del LLM era costituita da un archivio di 45 TB di dati in formato testo. Uno dei motivi di tale limite temporale è presto detto: fino a quell’anno in rete c’era solo contenuto creato da umani e non da intelligenza artificiale . Il rischio oggi infatti è che l’IA impari (anzi non impari) da contenuti generati da essa stessa.
Per fare un esempio di come invece può essere usata l’intelligenza artificiale generativa nel modo corretto abbiamo chiesto a chatGPT di aiutarci a trovare una frase che descriva l’uso improprio del caso citato utilizzando un tono ironico. Tra le diverse frasi che ci ha proposto ecco quella che ci è piaciuta di più:
“Contare su ChatGPT per risolvere problemi seri è come mettere un cappello da mago su un computer e sperare che esca un coniglio dallo schermo: tener presente che la realtà può riservare sorprese sgradevoli.”
Spiegato così il significato diventa molto più chiaro e ci aiuta ad avvicinarci all’intelligenza artificiale in modo più utile e corretto: affiancarci nel trovare delle nuove soluzioni, dei pensieri alternativi, dei ragionamenti. È naturale quindi ritenere che l’intervento dell’uomo ci deve essere sempre.
Come poter fare le ricerche in modo evoluto
Che soluzione avrebbe potuto adottare l’avvocato per riuscire a trovare le sentenze di cui aveva bisogno? Partendo da dei documenti ufficiali di giurisprudenza caricati in un sistema di Knowledge Management è possibile creare delle basi dati dalle quali attingere informazioni affidabili attraverso dei sistemi evoluti di ricerca, che vanno oltre le classiche ricerche per keyword.
Questo è quello che facciamo noi in R-Tree con BoK: una ricerca aumentata a partire da un set di documenti con in quali è possibile chattare, attraverso un chatbot, il quale apprende dalle informazioni che noi gli abbiamo dato, fornendoci un supporto di rinforzo e darci la possibilità di darci delle risposte corrette in poco tempo.
La conoscenza – il knowledge – si arricchisce aggiungendo ai documenti anche note personali, favorendo anche il trasferimento della conoscenza stessa ad altri.
Questa è l’intelligenza artificiale che ci piace, che vogliamo utilizzare e che ci è utile nel lavoro di tutti i giorni.