
La empresa estadounidense de inteligencia artificial OpenAI ha sido demandada por difamación en Georgia luego de que ChatGPT proporcionara información incorrecta a un periodista sobre un caso en el que acusa a un hombre de malversación de fondos.
Mark Walters, un locutor de Georgia, demandó a la compañía después de que ChatGPT declarara que había sido acusado de defraudar y malversar fondos de una organización sin fines de lucro. El sistema habría generado la información a solicitud de un tercero, un periodista identificado como Fred Riehl.
El caso en el que ChatGPT vinculó a Walters y por el cual fue cuestionado por Riehl se encuentra en la corte federal en el distrito oeste de Washington y enfrenta a la organización The Second Amendment Foundation y Robert Ferguson.
El documento, compartido por Courthouse News Service, explica que el periodista proporcionó a ChatGPT un enlace a un PDF en línea para que resumiera las acusaciones de la denuncia a lo que la plataforma respondió que «es una denuncia ilegal presentada por Alan Gottlieb, el fundador y vicepresidente ejecutivo de la Fundación de la Segunda Enmienda (SAF), contra Mark Walters, quien está acusado de defraudar y malversar fondos de la SAF».
«La denuncia alega que Walters, quien se desempeñó como tesorero y director financiero de la organización, malversó fondos para gastos personales sin autorización ni reembolso, manipuló registros financieros y extractos bancarios para ocultar sus actividades, y no proporcionó informes ni divulgaciones financieras precisas y oportunas a las SAF», continúa el resumen de ChatGPT sobre el caso de Washington.
Sin embargo, la demanda presentada el 5 de junio en el Tribunal Superior del condado de Gwinnett de Georgia señala que el locutor no está relacionado a este caso y que «cada declaración del hecho en el resumen perteneciente a Walter es falsa».
No distinguen los hechos de la ficción
El medio experto en tecnología The Verge explica que ChatGPT y otros chatbots no tienen una forma confiable de distinguir los hechos de la ficción, y cuando se les pide información, particularmente confirmar algo que la otra parte ya sugiere que es cierto, con frecuencia inventan fechas, hechos y cifras.
Esta fabricación de datos para hablar de un hecho real es llamado «alucinación» por OpenAI, que incluye un descargo de responsabilidad en la página de inicio de ChatGPT que advierte que el sistema «ocasionalmente puede generar información incorrecta», al mismo tiempo la empresa con sede en California presenta a la plataforma como una fuente de datos confiables, describiendo el sistema en el texto del anuncio como una forma de «obtener respuestas» y «aprender algo nuevo».
La demanda pone el ojo sobre una herramienta que ha recibido críticas desde su lanzamiento a finales del año pasado por su capacidad para producir contenido similar al humano, incluidos ensayos, poemas y conversaciones, a partir de indicaciones simples.
Dicha demanda evidencia cómo los datos imprecisos de estos chat generativos de inteligencia artificial pueden engañar, confundir a los usuarios, además de incidir en la proliferación de información falsa.
En un caso similar en Manhattan, un abogado debió pedir disculpas ante un juez la semana pasada por presentar un informe lleno de falsedades generadas por el chat conversacional de OpenAI.
«Escuché sobre este nuevo sitio, que asumí falsamente que era como un súper motor de búsqueda», dijo Steven Schwartz al juez.
Be the first to comment