
Los sistemas IA funcionan de manera autónoma, interpretando datos mediante instrucciones predeterminadas para cumplir objetivos específicos, limitados por decisiones de diseño del desarrollador. La IA se define como un sistema basado en programas informáticos o dispositivos físicos que muestran comportamientos inteligentes al recopilar y analizar datos, interpretar su entorno y actuar con autonomía.
A pesar de sus avances, la IA actual es específica y frágil en entornos no controlados, mostrando vulnerabilidad en términos de seguridad. Su uso transversal en diversos productos y servicios a menudo es invisible para los usuarios, pero sigue siendo crucial en sus procesos.
La robótica, una tecnología vinculada a la IA, permite a las máquinas realizar funciones físicas mediante control automatizado, utilizando datos biométricos y características humanas. Aunque las herramientas tecnológicas no son intrínsecamente problemáticas, el mal uso de estas tecnologías puede tener consecuencias negativas. Las aplicaciones de IA, aunque útiles y prácticas, a menudo no son percibidas como riesgosas por los consumidores, quienes se convierten en el producto al usar estos servicios.
En redes sociales, la información dejada por los usuarios es procesada sin una distinción clara de la verdad, lo que puede llevar a la propagación de noticias falsas y a la indefensión de los consumidores. La IA, al reemplazar paradigmas vigentes, plantea desafíos éticos debido a su opacidad y autonomía parcial, que dificultan la verificación del cumplimiento de leyes de derechos fundamentales.
El Parlamento Europeo, en 2020, aprobó propuestas para regular la IA, abarcando cuestiones éticas, de responsabilidad civil y de derechos de propiedad intelectual, con miras a una legislación que proteja a los usuarios y regule los daños causados por estos sistemas.
La seguridad en el sector financiero es un área de creciente preocupación debido a los ciberataques. Las tecno finanzas, que combinan servicios financieros y digitales, son vulnerables y los fallos de seguridad pueden tener repercusiones significativas.
Legalmente, se están esbozando principios éticos para la IA tanto en la UE como a nivel global, con empresas introduciendo medidas para garantizar el cumplimiento de estos principios. Sin embargo, la transparencia y la auditoría de estos mecanismos son insuficientes, lo que plantea desafíos de control.
La prevención de riesgos en IA requiere implementar principios éticos como justicia, responsabilidad, seguridad, y transparencia, pero existen dificultades en su control, especialmente en actividades transfronterizas. El sesgo en el diseño de algoritmos puede llevar a la discriminación, subrayando la necesidad de una regulación más estricta y responsable.
Finalmente, se identifican dos escenarios de riesgos: la vulneración de derechos fundamentales, protección de datos y privacidad; y la seguridad y correcto funcionamiento de productos y servicios que utilizan IA. La digitalización, aunque beneficiosa, también aumenta desigualdades y exclusiones, requiriendo una regulación europea robusta y la revitalización del contrato social para proteger a los ciudadanos en la era digital.
La responsabilidad legal por errores de IA o incidentes ocasionados por sistemas autónomos en el ámbito de la ciberseguridad es un área compleja y en evolución dentro del ordenamiento jurídico. Dada la naturaleza innovadora de estas tecnologías, los marcos legales existentes pueden no abordar completamente las nuevas cuestiones que surgen.
También tenemos que partir de la base que, en el ordenamiento jurídico español, quien asume responsabilidad legal por errores o fallos, que se puedan cometer dentro del ámbito de actuación son las personas físicas y las personas jurídicas. En el caso de las personas físicas, se indica en el art.30 Cc que la personalidad se adquiere en el momento del nacimiento, lo que conlleva también la obtención de una serie de derechos y obligaciones a través de la capacidad jurídica. Sin embargo, es una de las grandes diferenciaciones con la IA, dado que esta no cumple con el requisito de vida biológica, por lo que resulta inviable considerarle como persona física, aunque pueda emular la inteligencia humana.
En el caso de las entidades o personas jurídicas, que se encuentran reguladas en los arts. 35 al 39 del Cc, también adquieren una serie de derechos y obligaciones tras su constitución. Se puede aplicar en una manera teórica a la IA, en cuanto que tiene una creciente independencia y autonomía, y como las personas jurídicas son unas figuras legales ficticias. Como hemos indicado anteriormente, la falta de capacidad de obrar por parte de la IA para asumir derechos y obligaciones, y la falta que tiene dignidad e integridad moral complica su consideración plena como persona jurídica.
Según lo indicado anteriormente, se ha planteado la posibilidad de un hibrido, y concebir una nueva figura jurídica como la persona electrónica[1], como muchos de los aspectos de la IA esto genera controversia, puesto que no se puede dotar de ciertas obligaciones y ciertos derechos como se hace al ser humano. La creación de esta figura permitiría que la IA más autónoma y compleja fuera responsable de reparar daños causados y que tomara unas decisiones más independientes, pero para ello sería necesario un desarrollo exhaustivo y definirles de tal manera que se le pudiera otorgar dicho estatus y el reconocimiento derechos y obligaciones. El problema que conlleva es la falta que tiene la IA en ciertas categorías como puede ser la autogestión, autoaprendizaje, tras lo visto anteriormente, podemos llegar a la conclusión de que no siendo posible crearla figura jurídica, sí que habría que adaptar las disposiciones jurídicas al momento que estamos viviendo con la IA.
En 2017, el Parlamento Europeo propuso en su Resolución del 16 de febrero asignar dicha personalidad jurídica a aquellos sistemas de IA que fuera avanzados, para poder solventar los problemas por los daños causados por ellos[2]. Dicha propuesta, fue rechazada por aquellos entendidos en la materia, así mismo el CESE[3] también desestimo esta noción de dotar a la IA esa personalidad, indicando en su Dictamen “generaría un riesgo moral tanto en el desarrollo como en la utilización de la IA y daría lugar a un posible uso indebido”.
Responsabilidad civil derivada de la Inteligencia Artificial
En el caso de que la IA provocara un daño, se podría plantear que fuera responsable civilmente del daño cometido por la autonomía que tiene de tomar decisiones. Sin embargo, la legislación vigente en materia de responsabilidad civil no admite que estos sistemas de IA tengan dicha responsabilidad. Por ello, la responsabilidad suele recaer en los fabricantes o los empresarios.
Según Marchena Gómez[4], la IA está siendo utilizada en todas las áreas jurisdiccionales, pero es en el ámbito civil donde es más urgente abordar estos procedimientos de la IA por los daños causados que surgen respecto a su uso. Los daños que surgen pueden ser debido a un diseño defectuoso, una programación inadecuada o el hecho de que no estén suficientemente capacitados para reaccionar a hechos que surjan de manera imprevista.
Cabe mencionar también, al profesor Navarro Mendizábal, el cual nos habla sobre qué tipo de responsabilidad se podría otorgar a la IA, en el caso de que fuera una responsabilidad objetiva, la jurisdicción aplicable podría implantarse de manera directa, sin necesidad de instrumentos jurídicos adicionales. Por el contrario, si la doctrina decidiera que esta responsabilidad fuera de manera subjetiva, aquí sí que necesitaríamos instrumentos jurídicos para que estos sistemas inteligentes tuvieran imputabilidad, pero para ello estos sistemas deberían tener las dos capacidades que poseen un ser humano, y son la personalidad jurídica y la capacidad de obra, y como anteriormente hemos mencionado la IA no tiene dichas capacidades que derivan del Cc.
Según Gonzalo Campos, ‘la integración de los sistemas de inteligencia artificial en la vida cotidiana ha generado un debate sobre la adecuación del modelo actual de responsabilidad civil contemplado en la Directiva 85/374 y sus correspondientes normativas de transposición para los daños causados por productos defectuosos. La capacidad de los sistemas de IA para desarrollar una «razón» algorítmica representa un importante desafío legal para los Estados miembros.’[5]Como alternativa a lo anteriormente mencionados podemos plantear la necesidad de ajustar el marco normativo europeo de la responsabilidad civil mediante un modelo conciliador que reduzca la carga probatoria del damnificado respecto al defecto de los sistemas acercándose a una objetivación de responsabilidad civil parcial del fabricante y centrándose en el trámite de los riesgos asociados a la producción. Además, se debe proponer la creación de entidades jurídicas como es la figura del auditor para atribuir la responsabilidad civil directamente a los sistemas de Inteligencia Artificial, así los fabricantes no serían los únicos responsables ante posibles fallos o daños derivados de los sistemas autónomos, lo que a su vez podría fomentar un entorno regulatorio más justo y equilibrado, en el que los riesgos y beneficios asociados a la IA se gestionen de manera más eficiente y equitativa.
Responsabilidad penal derivada de la Inteligencia Artificial
En lo que concierne a la responsabilidad penal, y como ya hemos visto anteriormente la IA no tiene ese reconocimiento de persona jurídica, por lo tanto, las infracciones derivadas de ella se tendrían que ser atribuidas a las personas físicas que las utilizan como medio para realizar los diferentes tipos de delito.
El fiscal, Zamarro Ballesteros[6], nos indica que en un hipotético caso de que la IA tuviera esta capacidad jurídica como se debería imputar a la IA, y el tipo de dolo que se le tendría que atribuir, en este caso sería un dolo eventual, ni tampoco valorarse como un cooperador necesario. En todo caso, se podría apreciar como persona jurídica, y de ello derivaría la aplicación de la doctrina española del TS con esta responsabilidad penal[7] .
A través del uso de estos sistemas inteligentes, podemos indicar una serie de delitos que están relacionados con ellos. Si nos basamos en el CP español, tenemos infracciones como estafa informática, los relativos al mercado y consumidores, pornografía infantil, descubrimiento y revelación de secretos, terrorismo, y un largo etc…, dado que no podemos hacer un listado de manera cerrada, pues los delitos se van creando según avanza esta tecnología. Al igual, que también las grandes corporaciones o grupos, como la delincuencia organizada, hackers, instituciones gubernamentales, estos últimos sobre todo en materia militar y en la seguridad de un Estado perjudicando a los servicios público o Infraestructuras Criticas.
En el ámbito europeo, tenemos el Grupo de Expertos de alto nivel sobre inteligencia artificial de la Comisión Europea, el cual desarrollo una guía ética para el desarrollo futuro de estos sistemas, entre los cuales indicaban que tendría que ser licita, ética y robusta, dado que los dilemas sociales que se plantean atañen a los derechos fundamentales, por ello es imprescindible seguir los principios éticos para prevenir los conflictos relacionados. Este documento se ha convertido en un referente mundial, y cuenta con siete requisitos clave para que la IA sea confiable: Agencia humana y supervisión; Robustez técnica y seguridad; Privacidad y gobernanza de datos; Transparencia; Diversidad, no discriminación y equidad; Bienestar social y ambiental; Responsabilidad.
Unos de los ejemplos más claros que nos podemos encontrar de la responsabilidad penal de la IA es en el ámbito militar como bien aclara el autor Yonni ‘La cuarta revolución industrial ha traído consigo la mezcla vanguardista de sistemas inteligentes que se integran con las personas, esto ha generado que se comiencen a analizar nuevos escenarios en donde se pueda atribuir responsabilidad penal a nuevos sujetos de derecho, los cuales, si bien es cierto, no se encontraban contemplados unos años atrás, hoy en día están ocupando posiciones privilegiadas entre los seres humanos. [8] Por ello este contexto requiere un análisis más profundo, dado que la IA, está siendo cada vez más utilizada en el ámbito de las operaciones militares. Este hecho genera diversos debates en cuanto a la atribución de la responsabilidad penal en el caso que se cometa un crimen de guerra a través del uso de la IA. La cuestión central gira en torno a quien debería ser considerado responsable cuando estos sistemas autónomos estén involucrados en la comisión de actos ilícitos.
Frente a estas nuevas demandas de la sociedad, es imprescindible formular respuestas que sean coherentes con el marco jurídico vigente. En este sentido, la figura de la posición de garante emerge como una vía adecuada para atribuir responsabilidad penal a quienes, mediante sus acciones u omisiones, provoquen daños o generen riesgos innecesarios a través del uso de la IA en el ámbito militar, aunque puede abarcar a todos los ámbitos penales. De esta manera, se establece un puente normativo que permite la correcta imputación de responsabilidad en aquellos casos donde la tecnología autónoma tenga un impacto significativo en el entorno o en la seguridad de las personas.
[1] LAÍN MOYANO, G. Responsabilidad en inteligencia artificial: Señoría, mi cliente robot se declara inocente. Ars Iuris Salmanticensis, 2021, vol. 9, p. 197-232. eISSN: 2340-5155. Ediciones Universidad de Salamanca, p.8.
[2] Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)) Apartado 59 f)
[3] Comité Económico y Social Europeo: Inteligencia artificial: Las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad, Diario Oficial de la Unión Europea, C 288/1, 31 de agosto de 2017, p.7.
[4] MARCHENA GÓMEZ, M. Inteligencia Artificial y Responsabilidad Civil, p. 29. Magistrado del Tribunal Supremo.
[5] CAMPOS RIVERA, G. Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo. Revista Jurídica Universidad Autónoma de Madrid, 2023, núm. 46, pp. 173-215.Disponible en: https://doi.org/10.15366/rjuam2021.46.007 (Consulta: 4 julio 2024).
[6] ZAMARRO BALLESTEROS, R. Culpable, ¿la IA? Abogacía Española. Disponible en: https://www.abogacia.es/actualidad/opinion-y-analisis/culpable-la-ia/ (Consulta: 5 de julio 2024). Fiscal de la Fiscalía Provincial de Madrid.
[7] STS. Sala 2º, núm 514/2015 de 2 de septiembre (F.D. 3). Así como STS. Sala 2º, núm 234/2019 de 8 de mayo (F.D. 5).
[8] ALBEIRO BERMÚDEZ, Y. La responsabilidad penal derivada de las infracciones contra el derecho internacional humanitario cometidas por sistemas de inteligencia artificial en el marco de las operaciones militares. Ratio Juris, 2023, vol. 18, núm. 37, p.132.nes buscan un nuevo comienzo.