
¿Quién es responsable cuando la Inteligencia Artificial causa daños? Conozca el impacto de la I.A. en el campo del derecho, específicamente en lo relacionado con la Responsabilidad Civil.
La Inteligencia Artificial (I.A.) está tomándose el mundo mucho más rápido de lo que creíamos y esperábamos. El tiempo en que las máquinas trabajarían, pensarían y, peor, decidirían por nosotros ha llegado primero que el de los carros voladores y las robotinas domésticas. La diferencia es que no llegó, como pareciera, para facilitarnos la cotidianidad, sino para ponernos a su servicio, esclavizándonos sin que nos demos cuenta. Los colegios y las universidades han tenido que replantear sus modelos educativos al darse cuenta de que al estudiante no le importa tanto aprender a pensar por sí mismo como pasar un examen, y que por eso acude sin sonrojarse al Chat GPT para hacer sus ensayos y tareas, como también están acudiendo los profesionales para hacer su trabajo, confiando más en una máquina que en los libros, que cada vez se leen menos. La I.A., con todo, lo que ha hecho es desnudar una realidad histórica provocada por modelos educativos basados más en el castigo y la calificación que en la transmisión de un interés genuino por el saber y el pensamiento crítico, del que carece por completo la I.A.
En esta columna queremos aproximarnos a las nuevas problemáticas que la I.A. le aporta al derecho, más específicamente al derecho de Responsabilidad Civil, que estudia y desarrolla todos aquellos eventos en los cuales una o varias personas (naturales o jurídicas) adquieren la carga legal de responder, hasta cierto alcance, por los daños y perjuicios que otras personas (naturales o jurídicas) han sufrido como consecuencia de un hecho que jurídicamente es atribuible a aquellas, estando o no vinculadas a un contrato (por ejemplo, en un accidente de tránsito no hay relación contractual ni jurídica entre los accidentados, pero tanto el conductor del vehículo causante del siniestro como su propietario y quien se aprovecha económicamente de la actividad son responsables de pagar los daños de la víctima).
¿Podría haber responsabilidad civil derivada de hechos atribuibles a una Inteligencia Artificial?
Para responder esta pregunta conviene primero repasar a grandes rasgos cuáles son los escenarios en los cuales surge la responsabilidad civil:
1. Contractual:
· Cuando alguno de los contratantes actúa con mala fe respecto del otro violando, por ejemplo, entre otros, los deberes accesorios de transparencia, información y equivalencia de condiciones.
· Cuando el incumplimiento total o parcial de un contrato -cualquiera que sea, desde que sea válido- por parte de uno de los contratantes le causa daños o perjuicios al otro.
2. Extracontractual:
· Por el hecho propio: cuando una persona natural o jurídica comete un hecho por acción o por omisión que causa daños o perjuicios a otra. Aquí le corresponde al demandante demostrar la culpa del demandado, es decir, que este obró con negligencia, impericia, imprudencia o violando reglamentos o leyes aplicables al caso particular.
· Por el hecho ajeno: cuando una persona que es dependiente de otra porque es su hijo(a) menor, su empleado(a), delegado(a) o representante le causa daños a otra, figura que aplica de manera similar cuando un animal es el causante de los daños, responder su dueño. Aquí no es necesario probar la culpa; basta con demostrar el hecho y la relación de dependencia entre las partes.
· Por actividades peligrosas: cuando como consecuencia del ejercicio de una actividad riesgosa -conducción de vehículos, deportes extremos, manejo de armas, etc.- se produce un daño o un perjuicio a alguien que es ajeno al control de tal actividad. Aquí tampoco se requiere demostrar culpa, pues la ley presume que esta estaría inmersa dentro de la actividad peligrosa en sí misma.
· Por el abuso del derecho: cuando una persona utiliza los mecanismos de justicia con el único fin de perturbar o dañar a otra y sin tener una causa legal sólida para demandar o denunciar. Aquí sí corresponde probar la culpa, entendida como temeridad e intención de dañar.
Dicho lo anterior, ¿se puede enmarcar la I.A. dentro de alguno de esos supuestos?
El asunto es relativamente fácil de resolver si la I.A. causa un daño a partir de un contrato válido entre las partes. Pensemos por ejemplo en una reserva hotelera que se realiza no mediante un ser humano sino a través de la máquina y que esta, por error, la borra o la asigna en otra sucursal del hotel, ubicada en ciudad distinta. El huésped demandará al hotel por vía contractual y a cuenta de hechos atribuibles a la I.A. Y así podríamos pensar en muchos ejemplos. También será fácil el tema si resulta claro que el hecho dañino ha sido cometido a través de la I.A., cosa que no siempre ocurre porque a veces esta opera en libertad, como veremos.
El tema se complica cuando no hay relación contractual entre la víctima y el creador de la I.A. A primera vista podría pensarse que como la I.A. es siempre una creación humana entonces su creador debería declararse responsable de cualquier daño cometido por la máquina, ya sea por una actividad que opere o realice, ya sea por un concepto errado que eleve (aunque en este último caso podría pensarse en la culpa de la víctima por la negligencia de confiar ciegamente en una máquina pudiendo estudiar por sí mismo aquello que depende de ese concepto), de manera semejante a como el creador de un producto defectuoso es responsable de pagar los daños por este causados.
Sin embargo, la ciencia ha demostrado que el creador se limita a otorgarle a la máquina una base algorítmica a partir de la cual esta obra con cierta autonomía y libertad indescifrable e imprevisible, que resulta, por esto, altamente riesgosa. De ahí que el creador no podría ser declarado responsable por el simple hecho de crear la máquina. Se debe hacer un análisis más profundo. Claramente, si se demostrara que existió un error del creador en la configuración algorítmica, que a su vez produjo la conducta de la máquina que causó los daños, habría responsabilidad por el hecho propio. Pero si el algoritmo está bien diseñado y no se observa que por sí mismo hubiera facilitado la causación de un daño, entonces no habría motivos para culpar al creador de la máquina.
¿Podría considerarse una actividad peligrosa, en la medida en que existe un riesgo derivado de la relativa libertad con que opera la I.A.?
Puesto que las actividades peligrosas deben estar dirigidas y controladas por una o varias personas humanas para ser consideradas como fuente de responsabilidad, según lo expuesto, la I.A., una vez que ha sido puesta en marcha, definitivamente no lo está (dicho sea de paso, he ahí el gran peligro para la humanidad) y, por tanto, no parece correcto hablar de actividades peligrosas en estricto sentido. Así pues, nos quedaría solamente un camino que sería el de la responsabilidad por el hecho del dependiente, que tampoco es aplicable puesto que la máquina no siempre depende de alguien; según dijimos, ella puede obrar con autonomía y libertad, de forma impredecible.
Es por lo anterior que el Parlamento Europeo, demostrando la preocupación que existe en la comunidad jurídica, emitió un informe en el año 2020 dirigido a la Comisión Europea en el que se desarrollaron una serie de conceptos relativos a la responsabilidad civil de la I.A. Por ejemplo, en dicho informe se contempló la necesidad de establecer un régimen de responsabilidad objetiva por virtud del cual todo creador de máquinas o robots con I.A. debería declararse responsable. Pero como ya vimos, esto no es jurídicamente preciso. Por eso, destacamos de dicho informe la propuesta de crear fondos comunes a los cuales todos los creadores u operadores de I.A. estén obligados a aportar una suma periódica o fija para que de ahí se obtengan los montos que garanticen la indemnización de quienes demuestren haber sufrido daños patrimoniales o extrapatrimoniales derivados de la I.A.; y claro, sin mediar su propia culpa. Esta parece ser, sin duda, una excelente opción pues garantiza que:
· Todos aporten a la compensación de daños en un plano de igualdad.
· Se cumpla el fin de la responsabilidad civil, que es el resarcimiento de los perjuicios, sin la difícil labor de hallar a los responsables, que a veces conduce a la impunidad.
· No se sancionen conductas en las cuales no haya culpabilidad de una persona natural o jurídica.
El fondo común de daños es una opción más plausible que el seguro de responsabilidad civil por la simple razón de que la conducta de la I.A. es imprevisible y ninguna aseguradora sensata estará dispuesta a amparar hechos que no puedan preverse y que resulten altamente riesgosos, salvo que lo hagan por altas sumas de dinero en las primas, que compensen lo que tengan que pagar en caso de un siniestro demostrado.
Así pues, la I.A. no solamente representa un peligro enorme para la humanidad desde el punto de vista de nuestra seguridad, libertad racional y capacidad analítica, así como desde lo psicológico y filosófico, sino que trae enormes desafíos para el mundo del Derecho, que mal que bien es el que se encarga de regular la vida en sociedad.
Fuentes: