Introducción
¿Crees que es un derecho tener un trabajo significativo como el de conductor de taxi a pesar de que los coches sin conductor son más seguros que los coches conducidos por humanos? ¿Qué pasa con el médico que diagnostica cáncer? ¿Debería tener ese derecho también, aunque el aprendizaje automático puede hacer un mejor trabajo?
Objetivos de aprendizaje para el capítuloAl final del capítulo, los participantes podrán:- reflexionar sobre los requisitos para que los sistemas de IA sean éticos
- evaluar sus propios valores
- tomar decisiones y formular argumentos relevantes para esto.
Privacidad y gobierno de datos
La privacidad está íntimamente ligada a la idea de prevenir daños y es un derecho fundamental sobre el que pueden impactar los sistemas de IA. La calidad y la integridad de los datos, la relevancia de los datos para el dominio donde se utilizarán los sistemas de IA, los protocolos de acceso y cómo se procesarán los datos son importantes para garantizar la privacidad.
Los sistemas de IA deben proteger la privacidad y los datos de las personas durante todo el ciclo de vida de un sistema y esto se denomina "gobernanza ". Cuando una persona interactúa con un sistema de IA, se crea información sobre ellos con el tiempo. Esto incluye la información proporcionada por ellos cuando comienzan a usar el sistema por primera vez, así como la información que el sistema de IA crea sobre ellos a medida que interactúan con él. Los sistemas de inteligencia artificial pueden determinar no solo lo que le gusta o disfruta a un individuo, sino también su orientación sexual, edad, género, opiniones religiosas o políticas, en función de los registros digitales de su comportamiento. Debido a que las personas deben poder confiar en el proceso de recopilación de datos, se debe garantizar que la información que se recopila sobre ellas no se utilizará para discriminarlas de ninguna manera.
https://www.youtube.com/watch?embed=no&v=1bhpWEMZ6XA
La calidad de los datos utilizados en los sistemas de IA es fundamental para su buen funcionamiento. Cuando se recopilan datos, pueden tener sesgos, inexactitudes, errores y equivocaciones creados socialmente que cometen las personas. Esto requiere atención antes de que se pueda utilizar cualquier conjunto de datos. Además, los datos deben ser revisados para asegurarse de que son correctos. La alimentación de datos maliciosos o datos que no se "limpian" en un sistema de IA puede hacer que actúe de manera diferente, especialmente si el sistema es de autoaprendizaje.
Debe haber muchas pruebas y documentación en cada paso, desde la planificación hasta la capacitación, las pruebas y la implementación. Esto también debería aplicarse a los sistemas de IA que no se construyeron internamente sino que se compraron a un tercero.
Ya sea que alguien sea un usuario del sistema o no, debe haber reglas sobre cómo las personas pueden acceder a sus propios datos. Estos protocolos deben indicar claramente quién puede ver los datos y cuándo. Solo las personas que necesitan ver los datos de una persona deberían poder hacerlo. Este requisito está íntimamente ligado a la idea de transparencia e incluye los datos, el sistema y los modelos de negocio que componen un sistema de IA.
Transparencia
La transparencia, en términos generales, es la cualidad de ser fácilmente visible. En términos de IA, incluye hacer que los datos, el sistema y los modelos comerciales asociados con el sistema sean claros para todos.
Las decisiones del sistema de IA deben documentarse de la mejor manera posible, incluidos los conjuntos de datos y los procesos que dieron lugar a ellas, y los algoritmos que se utilizaron. Esto hace que sea más fácil para las personas ver cómo el sistema de IA tomó sus decisiones y llegó a sus conclusiones, lo que lo hace transparente. Cuando una decisión de IA es incorrecta, también ayuda a determinar por qué y ayuda a evitar volver a cometer el mismo error. Del mismo modo, la trazabilidad facilita la auditoría y la explicación.
La explicabilidad es la capacidad de explicar tanto los procesos técnicos de un sistema de IA como las decisiones humanas que los acompañan (por ejemplo, las áreas de aplicación de un sistema). Los sistemas de IA deben poder tomar decisiones que los humanos puedan explicar y rastrear. También puede haber compensaciones entre hacer que un sistema sea más explicable (lo que puede hacerlo menos preciso) y hacerlo más preciso (lo que puede hacerlo menos explicable).
Cuando un sistema de IA tiene un gran impacto en la vida de las personas, estas tienen derecho a obtener una explicación aceptable de cómo el sistema de IA tomó sus decisiones. Dicha explicación debe ser oportuna y adaptada al nivel de conocimiento del individuo (p. ej., profano, usuario o regulador).
Además, deben estar disponibles las explicaciones de cómo un sistema de IA afecta y da forma a la forma en que una organización toma decisiones, cómo se creó el sistema y por qué se utilizó, lo que garantiza la transparencia del modelo de negocio.
https://www.youtube.com/watch?embed=no&v=3wLqsRLvV-c&t=6
Los sistemas de IA no deben hacer que los usuarios piensen que son humanos. Las personas tienen derecho a saber que están interactuando con un sistema de IA . Esto significa que los sistemas de IA deben poder reconocerse como tales. Además, las personas deberían poder optar por no tener esta interacción en favor de la interacción humana cuando sea necesario para proteger sus derechos básicos.
Aparte de eso, las habilidades y limitaciones del sistema de IA deben comunicarse a los profesionales de la IA o a los usuarios finales de una manera que se ajuste al propósito del escenario. Esto podría incluir informar a las personas sobre la precisión del sistema de IA, así como sobre lo que no puede hacer.