Schwartz alega que utilizou a IA para aprimorar o documento, mas só mais tarde descobriu que o ChatGPT havia incluído cerca de meia dúzia de casos jurídicos fictícios. Ele ainda afirmou que desconhecia a possibilidade de que o conteúdo fornecido pelo ChatGPT pudesse ser falso.
De acordo com informações, o juiz responsável pelo caso classificou a situação como 'sem precedentes', visto que o documento continha citações e decisões judiciais inexistentes. Uma audiência foi marcada para avaliar possíveis sanções contra Schwartz.
O caso em questão envolve o cliente de Schwartz, Roberto Mata, que está processando a Avianca após ser ferido por um carrinho de metal que atingiu seu joelho durante um voo de El Salvador a Nova York em agosto de 2019. A Avianca pediu o arquivamento do processo, mas Schwartz recorreu, apresentando um documento com argumentos para que o caso continuasse.
No documento de 10 páginas, Schwartz menciona casos como Martinez vs Delta Air Lines, Varghese vs China Southern Airlines e Zicherman vs Korean Air Lines. No entanto, nem os advogados da Avianca nem o juiz conseguiram encontrar tais decisões, pois todas foram criadas pelo ChatGPT.
Schwartz alega que não pretendia enganar o tribunal ou a Avianca e que chegou a pedir confirmação ao ChatGPT sobre a autenticidade dos casos. O robô, por sua vez, confirmou que eram reais. Diante da repercussão negativa, o advogado lamentou o ocorrido e afirmou que jamais fará consultas sem verificação absoluta da autenticidade.
Além dessa situação, abordagens sobre a IA e seus usos no cotidiano têm sido alvo de discussões e acordos entre países, como o futuro acordo comum sobre Inteligência Artificial entre os EUA e a União Europeia, e aplicações em outras empresas, como o Google e a Netflix.