IA bajo la lupa: el caso Walters vs. OpenAI y sus enseñanzas para la ley colombiana

El auge de la inteligencia artificial generativa está llevando al límite los marcos legales tradicionales. En un fallo sin precedentes, el Tribunal Superior de Georgia se pronunció en el caso Walters vs. OpenAI, sentando un importante precedente sobre la responsabilidad civil por información falsa creada por ChatGPT.
El caso gira en torno a afirmaciones difamatorias que atribuían delitos inexistentes a un reconocido locutor, lo que ha encendido el debate sobre hasta qué punto los desarrolladores de IA pueden ser responsables por el contenido generado por sus sistemas. Desde la lupa del derecho comparado se puede ver que esta decisión abre un nuevo capítulo sobre la protección de derechos fundamentales frente a la inteligencia artificial, así como plantea preguntas críticas sobre la capacidad de la legislación actual para abordar los desafíos de estas tecnologías emergentes.
¿Cuáles son los hechos centrales del caso Walters vs. OpenAI?
El caso involucra a Mark Walters, un reconocido locutor y activista a favor del derecho a portar armas, quien demandó a OpenAI por difamación. En mayo de 2023, Frederick Riehl, editor de AmmoLand.com, utilizó ChatGPT para obtener un resumen de una demanda judicial. Al proporcionar el enlace URL del documento, ChatGPT respondió inicialmente que no podía acceder a internet. No obstante, en un segundo intento, el sistema generó información completamente falsa, atribuyendo a Walters la comisión de delitos que nunca había cometido. Esta información inexacta fue producto de una “alucinación” de la IA, fenómeno que consiste en la generación de contenido que contradice los datos fuente.
¿Cuál fue la decisión del tribunal de Georgia y cuáles fueron sus fundamentos principales?
El tribunal aceptó la moción interpuesta por OpenAI para el rechazo sumario de la demanda. Su razonamiento se estructuró en tres ideas fundamentales:
- Determinó que no hubo “difusión efectiva” porque Riehl nunca publicó la información falsa generada por ChatGPT, manteniéndola en el ámbito privado de su consulta.
- Concluyó que OpenAI no podía tener conocimiento específico de la falsedad de cada respuesta generada, dado el carácter probabilístico de los modelos de lenguaje.
- Consideró que los términos de servicio y las advertencias sobre posibles inexactitudes constituían salvaguardas suficientes que exoneraban de responsabilidad al desarrollador.
El rechazo a favor de OpenAI supuso la conclusión de que no se acreditó la existencia de un daño difamatorio efectivo, motivo por el cual no se dispuso la retractación, ni el cierre del sitio web, ni la imposición de indemnización alguna.
"El caso Walters vs. OpenAI marca un punto de inicio en la intersección entre inteligencia artificial y responsabilidad civil, aunque su resolución deja interrogantes significativos sobre la protección adecuada de los derechos fundamentales en la era digital".
William David Hernández Martínez, profesor de la Facultad de Estudios Jurídicos, Políticos e Internacionales.
¿Qué aspectos de la decisión podrían considerarse más problemáticos?
El enfoque del tribunal presenta al menos tres aspectos conceptuales problemáticos.
El desarrollo futuro de esta área del derecho requerirá un diálogo interdisciplinario para crear estándares que protejan efectivamente los derechos fundamentales, mientras fomentan el desarrollo responsable de la inteligencia artificial.
Primero, la interpretación restrictiva de “difusión” no tiene en cuenta que la mera generación de contenido difamatorio para la consideración de una persona ya causa daño reputacional, independientemente de su posterior divulgación a más personas. En Colombia, la Corte Constitucional¹ ha recogido que el daño a la honra puede configurarse aun sin difusión pública, en tanto se trata de la dignidad inherente a la persona humana. En cambio, el buen nombre —entendido como la valoración social o reputación frente a terceros— exige necesariamente difusión para su vulneración. Esta distinción permite matizar los alcances del daño reputacional cuando se trata de información generada por sistemas de IA.
Segundo, si una empresa desarrolla tecnología que sistemáticamente puede generar información falsa sobre personas reales, debe cuestionarse si esta no debe asumir las consecuencias de las fallas en el diseño del sistema. Al respecto consideramos que el elemento de culpa debe evaluarse considerando si el desarrollador ejerció la diligencia debida en el diseño del sistema. Si la IA tiene una propensión conocida a generar “alucinaciones” sobre personas reales, se requiere que el desarrollador implemente las salvaguardas técnicas adecuadas.
Finalmente, el tribunal parece otorgar pleno valor exculpatorio a las advertencias contractuales, lo que podría llevar a pensar que las empresas tecnológicas pueden, a través de los disclaimers, evadir responsabilidad por daños previsibles. Esta visión transferiría completamente el riesgo a los usuarios, ignorando que las empresas tienen capacidad técnica superior para implementar algunas salvaguardas a estos fenómenos.
¹ Entre otras, Corte Constitucional, Sentencias SU-420 de 2019 y T-007 de 2020.
¿Qué implicaciones tiene este caso para la regulación de tecnologías generativas?
El caso Walters revela la necesidad de revisar los marcos jurídicos tradicionales al momento de abordar daños causados por la inteligencia artificial generativa. La decisión, si bien comprensible desde una perspectiva de derecho anglosajón, podría interpretarse en el sentido de que las empresas tecnológicas gozan de “inmunidad” práctica, por la sola advertencia sobre posibles inexactitudes. Es necesario revisar instrumentos, como las leyes sobre protección de datos personales —en Colombia, la Ley 1581 de 2012—, los parámetros de responsabilidad civil y explorar posibles ajustes legislativos sobre la imputabilidad objetiva por fallas de diseño. Además, la jurisprudencia sobre responsabilidad por daño moral derivado de contenidos falsos debe actualizarse ante escenarios algorítmicos.
Otro reto emergente consiste en definir el sujeto responsable: ¿debe responder el proveedor tecnológico que diseñó el sistema?, ¿el usuario que la activó? En Colombia, el principio de imputación exige voluntad y capacidad de acción, por lo que adaptar estas categorías al ámbito algorítmico exigirá un rediseño teórico y normativo profundo.
El caso Walters vs. OpenAI marca un punto de inicio en la intersección entre inteligencia artificial y responsabilidad civil, aunque su resolución deja interrogantes significativos sobre la protección adecuada de los derechos fundamentales en la era digital. El desarrollo futuro de esta área del derecho requerirá un diálogo interdisciplinario para crear estándares que protejan efectivamente los derechos fundamentales, mientras fomentan el desarrollo responsable de la inteligencia artificial. El desafío será mantener el equilibrio entre la protección de la dignidad humana y la promoción de la innovación tecnológica que caracteriza a las sociedades democráticas del siglo XXI.
Esta nota fue publicada originalmente en el portal Asuntos Legales. William David Hernández Martínez es director de la Maestría en Derecho de la Empresa y de los Negocios de la Universidad de La Sabana.
Artículos relacionados

CONTACTO
Tus comentarios y preguntas son importantes para nosotros. Diligencia este formulario y nos pondremos en contacto. También puedes venir a visitarnos y resolveremos tus dudas.
