Intelligenza artificiale: avvocato cita precedenti, ma sono tutti inventati

Durante l'udienza il giudice ha sollevato il problema di sei sentenze citate dal professionista che si sono rivelate essere false

di Redazione Mediatech
MediaTech

New York, avvocato usa ChatGpt per ricerche legali e finisce in tribunale

Si era presentato in aula convinto di poter vincere, forte di un alleato solido e ben informato: l'intelligenza artificiale di ChatGpt. Un avvocato di New York, Steve Schwartz, che rappresentava un cliente in una causa contro una compagnia aerea, ha finito con il rimediare, però, una brutta figura: sei sentenze di cause precedenti si sono rivelate fasulle, basate su casi mai esistiti.

Così il legale, con una carriera trentennale in uno studio accreditato della Grande Mela, è comparso in tribunale per rispondere dell'uso da parte della piattaforma di intelligenza artificiale ChatGpt nelle ricerche legate al suo caso. Schwartz ha detto di non essere a conoscenza del fatto che i contenuti prodotti dall'intelligenza artificiale "fossero falsi". Tuttavia, ha dovuto ammettere di essersi servito dell'intelligenza artificiale per consolidare la posizione del cliente.

Leggi anche: "L'intelligenza artificiale come una guerra nucleare. Umanità a rischio"

In una dichiarazione giurata, ha affermato di non aver mai utilizzato ChatGpt come fonte di ricerca legale prima di questo caso e, pertanto, "non era a conoscenza della possibilità che il suo contenuto potesse essere inattendibile", assumendosi la responsabilità di non aver confermato le fonti del chatbot. Ha inoltre assicurato che non utilizzerà mai più l'intelligenza artificiale per "integrare" la sua ricerca "senza verificare l'autenticità" dei contenuti. Ma ciò non gli eviterà un'udienza del tribunale - prevista l’8 giugno - in cui verranno valutate sanzioni nei suoi confronti.

Leggi anche: Nvidia, il supercomputer per l'intelligenza artificiale. Supporto a ChatGpt

Tags:
avvocatochatgptintelligenza artificialenew york