¿Infringir la ley con la IA?
Aliada cotidiana para escribir correos electrónicos, preparar informes o planificar viajes, la inteligencia artificial se ha integrado en nuestras rutinas con una rapidez pasmosa. Lo que parecía una herramienta inocua de productividad ha demostrado, sin embargo, una cara oscura inquietante: la misma tecnología que organiza agendas puede ser utilizada para infringir la ley utilizando la IA, ya sea queriendo o sin querer. Algunos episodios recientes –como el hombre que acabó con la vida de su madre después de haber mantenido conversaciones con ChatGPT que reforzaron sus delirios paranoides– han obligado a OpenAI a explicar públicamente cómo actúan sus sistemas cuando detectan riesgos hacia terceros.
En el comunicado, lanzado este agosto bajo el título Ayudamos a las personas cuando más lo necesitan, la compañía aclaraba que sus modelos están entrenados para detectar señales de violencia y que, cuando se considera que existe una amenaza inminente, las conversaciones pueden derivarse a un equipo humano con capacidad de alertar a las autoridades. Esta instrumentalización con fines criminales es quizás el problema más grave detectado, pero no el único: profesionales y ciudadanos que confían ciegamente en sus respuestas sin contrastarlas podrían estar infringiendo la ley sin ni siquiera ser conscientes de ello.
Alucinaciones nada inteligentes
Que la IA a veces miente (o que no es fiel a la verdad) no es una novedad. Las llamadas alucinaciones –respuestas fabricadas con apariencia de verdad– son un fenómeno conocido por los expertos. Lo que ha cambiado es la escala y el contexto: ya no hablamos de un error menor en una consulta personal, como quien se fía de un chatbot y descubre en el aeropuerto que no ha solicitado un visado obligatorio para entrar en un país extranjero, sino de procesos y documentos oficiales que pueden quedar contaminados por datos imprecisos y, lo peor, en muchos casos inventados.
En España, la Sala de lo Penal del Tribunal Superior de Justicia de Navarra abrió el año pasado una pieza separada a un abogado que había presentado una querella criminal redactada en parte con párrafos generados por ChatGPT. El escrito citaba artículos del Código Penal de Colombia en lugar del español, lo que provocó que el tribunal no solo inadmitiera la acusación, sino que estudiara sancionarle por posible mala praxis. Finalmente, el implicado reconoció el error, presentó disculpas y el caso se archivó sin sanción, aunque la resolución sirvió de aviso: el uso descuidado de la inteligencia artificial plantea implicaciones legales, deontológicas y éticas que no pueden obviarse. La Sala recordó que la revisión y validación de los documentos sigue siendo responsabilidad de los letrados, algo que entronca con las orientaciones publicadas por la Law Society en Reino Unido en 2023, que ya instaban a la profesión a no delegar en la tecnología la precisión de su trabajo jurídico.
En Estados Unidos, las consecuencias son mucho más severas. En Nueva York, dos abogados fueron multados con 5.000 dólares tras presentar un escrito plagado de sentencias ficticias generadas por un chatbot. En Utah, otro jurista tuvo que reembolsar gastos, pagar las costas y realizar una donación obligatoria después de introducir en un recurso precedentes inexistentes. Y en Colorado, un par de letrados fueron sancionados bajo la Regla 11 por presentar un documento con decenas de referencias falsas o defectuosas. Cada caso refuerza la misma advertencia: la IA puede ser una herramienta de apoyo, pero en un tribunal el deber de verificar sigue recayendo sobre el profesional, y las consecuencias de no hacerlo son inmediatas y costosas.
Propiedad intelectual y protección de datos
En los últimos meses han surgido varios litigios que ponen de relieve cómo la inteligencia artificial desafía los principios tradicionales de la propiedad intelectual y la protección de datos. Por ejemplo, Disney, Universal y Warner Bros Discovery han demandado a la compañía MiniMax por presunto uso no autorizado de material protegido –como personajes icónicos– para entrenar y alimentar su servicio de generación de imágenes y videos Hailuo AI, acusándola de infringir derechos de copyright. Asimismo, Encyclopedia Britannica ha presentado una demanda contra Perplexity AI, alegando que copia sus contenidos sin permiso y que, además, se los atribuye como propios. Cabe recordar que esta startup se enfrenta a una acusación similar por parte de News Corp, Dow Jones y New York Post por presuntamente hacer un mal uso de sus artículos en el motor de búsqueda.