Presentación inteligencia artificial moderno negro y violeta.pdf
jl2024081476
0 views
20 slides
Sep 28, 2025
Slide 1 of 20
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
About This Presentation
Diapositivas de Criterios para determinar la imputabilidad en accidentes con vehículos
autónomos o sistemas médicos basados en IA
Size: 19.34 MB
Language: es
Added: Sep 28, 2025
Slides: 20 pages
Slide Content
CRITERIOS PARA
DETERMINAR LA
IMPUTABILIDAD EN
ACCIDENTES CON VEHÍCULOS
AUTÓNOMOS O SISTEMAS
MÉDICOS BASADOS EN IA.
2025
Grupo: 6
Regulación de inteligencia artificial y
responsabilidad jurídica
Enfoque: Vacíos normativos en la atribución
de responsabilidad por daños causados por
sistemas autónomos.
02
La inteligencia artificial (IA) se refiere a la
simulación de procesos que normalmente
requieren inteligencia humana, como el
reconocimiento de objetos, lenguaje, toma de
decisiones y aprendizaje.
Los sistemas autónomos son aquellos que pueden
operar y tomar decisiones sin intervención
humana directa, adaptándose a entornos
cambiantes mediante capacidades como
percepción, control y accionamiento.
La autonomía implica que estos sistemas
mantienen su operación en el tiempo y pueden
decidir sus acciones de forma independiente,
utilizando recursos sensoriales y computacionales
en entornos inciertos.
¿Qué es la Inteligencia Artificial y
los Sistemas Autónomos?
03
Vehículos autónomos
Estos vehículos cuentan con un "cerebro virtual" que
identifica situaciones de tráfico y actúa en consecuencia.
Son capaces de detectar objetos y condiciones en 360
grados, incluso en condiciones climáticas adversas como
lluvia o niebla, con el objetivo de mejorar la seguridad
vial y la eficiencia del transporte.
Los vehículos autónomos son máquinas
capaces de navegar y operar sin conductor,
utilizando tecnologías avanzadas como
radares, sensores LIDAR, visión
computarizada y mapas en 3D para percibir
y analizar el entorno.
03
Sistemas médicos basados en IA
Además, la IA facilita la monitorización continua de
pacientes, mejora la adherencia a tratamientos y
apoya cirugías asistidas por robótica, ampliando las
capacidades del personal médico .
Los sistemas médicos con IA aplican
algoritmos para analizar datos biomédicos y
apoyar diagnósticos, pronósticos y
tratamientos personalizados. Usan análisis
de imágenes, reconocimiento de patrones y
modelos predictivos para aumentar la
precisión clínica y reducir errores médicos.
03
¿Existe alguna norma que regule el uso de
la inteligencia artificial en sistemas
médicos, especialmente en casos de
accidentes o fallos técnicos?
máquina causa un daño,
¿quién es responsable? 03
Responsabilidad Jurídica e Imputabilidad
Entonces, ¿a quién le
atribuimos los daños?
Existen tres posibilidades:
El fabricante, si hubo error en el diseño.
El propietario, si no dio el mantenimiento
adecuado.
El operador, si hizo un mal uso del sistema.
Aquí tenemos tres tipos:
Civil: reparar daños causados a terceros (indemnización).
Penal: sancionar delitos con penas (prisión, multas).
Administrativa: el Estado responde por daños causados
por sus actos o sistemas fallidos.
Situación actual en el Perú
04La Ley 31814, aprobada en 2023, fija principios
como transparencia y protección de datos, pero no
establece quién responde si un sistema autónomo
causa un daño.
En 2024, la PCM publicó un proyecto de
reglamento con lineamientos de riesgo y
transparencia, aunque aún no está aprobado.
Además, tenemos la Ley de Protección
de Datos y su nuevo reglamento que
refuerza los derechos de los ciudadanos.
Por otro lado, se lanzó una Estrategia
Nacional de IA 2021–2026 y guías éticas
de INDECOPI, aunque estas últimas son
solo internas y no generan obligaciones
legales generales.”
VACÍOS NORMATIVOS EN LA REGULACIÓN DE LA IA EN EL PERÚ
Limitaciones de la legislación vigente
04
Primero, no existen criterios claros para atribuir
responsabilidad en sistemas autónomos.
Segundo, la regulación está fragmentada: no hay
normas específicas para vehículos autónomos o
sistemas médicos basados en IA.Tercero, hay limitaciones probatorias
porque no se exige transparencia
técnica, como registros o evaluaciones
de impacto.
Y cuarto, faltan mecanismos de
reparación: no hay seguros obligatorios
ni fondos que protejan a las víctimas de
daños ocasionados por la IA
COMPARACIÓN INTERNACIONAL
03
Unión Europea ha avanzado mucho con el AI Act, que regula los sistemas de alto riesgo, exige transparencia y busca
garantizar la reparación de las víctimas.
Chile, por su parte, presentó en 2024 un proyecto de ley que responsabiliza directamente al operador de la IA y establece
auditorías y evaluaciones de riesgo.
En contraste, Perú todavía no cuenta con un régimen integrado: no tenemos reglas claras de imputación, ni exigencias
técnicas como logs, ni mecanismos de reparación ágiles.
Necesidad de un marco especializado
04
Primero, para dar previsibilidad
jurídica y proteger a las víctimas,
estableciendo responsabilidades
según el nivel de autonomía de los
sistemas.
Segundo, para imponer deberes
técnicos, como registros de eventos y
auditorías.
Tercero, para crear mecanismos efectivos de
reparación, como seguros obligatorios o fondos de
compensación.
Y finalmente, para coordinar a las distintas
instituciones: PCM, ANPD, MTC, MINSA e INDECOPI.
En conclusión, un marco especializado garantizaría
seguridad jurídica y protección ciudadana, sin frenar la
innovación tecnológica
Perú necesita un marco legal especializado
para la inteligencia artificial.
Responsabilidad subjetiva (Art. 1969 CC): quien causa
daño por dolo o culpa debe indemnizar.
Problema: en sistemas autónomos (ej. vehículos sin
conductor) no siempre hay acción humana directa.
Responsabilidad objetiva o por riesgo (Arts. 1970 y 1984
CC): basta demostrar daño y nexo causal, sin necesidad de
probar culpa.
Aplicación en IA:
Fabricante o desarrollador responsables por defectos en
software/hardware.
Art. 101 de la Ley de Protección al Consumidor:
daños por productos defectuosos.
Doctrina: aplicar responsabilidad solidaria entre
diseñadores, fabricantes, distribuidores y operadores,
cuando se pruebe su vínculo con el daño.
Criterios de Imputabilidad en Casos de Daños Causados por IA
Según el Código Civil
Imputabilidad directa a la IA:
inviable → la IA no tiene voluntad ni conciencia.
Responsabilidad penal recae en personas
físicas o jurídicas que diseñan, operan o
controlan el sistema.
Conductas punibles:
Negligencia grave en la programación.
Imprudencia en la supervisión u operación.
Delitos informáticos vinculados a IA.
Ejemplo: desarrollador que incorpora
algoritmos defectuosos, con previsibilidad de
daño → podría ser penalmente responsable.
Criterios de Imputabilidad en Casos de Daños Causados por IA
Según el Código Penal
Art. 2 (incisos 1, 2 y 24): protege vida,
integridad, propiedad y derecho a no sufrir
daños contra la salud.
El Estado debe garantizar:
Un marco normativo eficaz frente a riesgos
de la IA.
Responsabilidades claras y mecanismos de
reparación.
Principio de seguridad jurídica:
normas claras para operadores de IA y
protección a víctimas.
Implicancia: la Constitución fundamenta la
necesidad de atribuir responsabilidades en
daños agravados por tecnologías autónomas.
Criterios de Imputabilidad en Casos de Daños Causados por IA
Según la Constitución
Identificar el nivel de autonomía del sistema y
el grado de intervención humana.
Evaluar fallas en hardware o software como
causa del daño.
Determinar la participación de operador,
propietario o terceros (mantenimiento
defectuoso, modificaciones indebidas).
Aplicar responsabilidad objetiva al fabricante o
desarrollador si se prueba defecto, nexo
causal y daño.
Considerar responsabilidad solidaria en toda
la cadena productiva y operativa.
Imponer sanciones penales cuando el daño
derive de conductas humanas dolosas o
negligentes(culposo).
Criterios de Imputabilidad en Casos de Daños Causados por IA
Aplicación práctica: Criterios en accidentes con IA
Caso hipotético: Accidente con vehículo
autónomo 07
Vehículo autónomo en Lima ocasiona
un accidente con un peatón.
•• Falla en el algoritmo de detección.
•• Surge el dilema: ¿Quién responde
legalmente?
Caso real: IA en el sector salud 07
•• Uso de IA en telemedicina y
diagnósticos asistidos (MINSA,
EsSalud).
•• Algoritmos en radiografías y
tomografías.
•• Error de IA = responsabilidad
atribuida al médico tratante.
Análisis jurídico del caso: ¿Quién responde? 07
•• Fabricante: por defectos de diseño o
producción.
•• Programador: por errores en el
código.
•• Usuario: por falta de supervisión.
•• Estado: por ausencia de regulación
clara.
5.4 Implicancias éticas, sociales y jurídicas 07
•• Éticas: transparencia, sesgos
algorítmicos, confianza.
•• Sociales: aceptación de la IA en salud y
transporte.
•• Jurídicas: vacíos normativos, reparación
de daños.
•• Urgencia de una regulación adaptada al
Perú.
Conclusiones
08
La IA y los sistemas autónomos generan vacíos legales en materia de responsabilidad.
En el Perú, la normativa es incipiente y no establece criterios claros de imputabilidad.
Modelos internacionales (UE, Chile, Brasil) muestran la necesidad de regulación basada en riesgos y
responsabilidad objetiva.
Es urgente implementar un marco legal especializado que garantice trazabilidad, reparación de daños y
seguridad jurídica.
El reto es equilibrar innovación tecnológica con la protección de derechos fundamentales.
La IA y los sistemas autónomos generan vacíos legales en materia de responsabilidad.
En el Perú, la normativa es incipiente y no establece criterios claros de imputabilidad.
Modelos internacionales (UE, Chile, Brasil) muestran la necesidad de regulación basada en riesgos y
responsabilidad objetiva.
Es urgente implementar un marco legal especializado que garantice trazabilidad, reparación de daños y
seguridad jurídica.
El reto es equilibrar innovación tecnológica con la protección de derechos fundamentales.