LA “RENDICIÓN DE CUENTAS” DE LA IA
Fecha: feb-marz. 2023
I. Introducción
Una de las cuestiones clave cuando se trata de IA y su conexión con la ley (como conjunto de preceptos normativos que deben ser respetados por todos) es la de la “rendición de cuentas” sobre su funcionamiento. A medida que la IA se vuelve más autónoma y capaz de tomar decisiones por sí misma, se torna cada vez más difícil responsabilizar a personas u organizaciones por los resultados -indeseados- de esas resoluciones. Esto es particularmente cierto en los casos en que los sistemas de IA realizan definiciones que tienen un impacto significativo en la vida de los individuos, como podría darse dentro del sistema de justicia de cualquier país1.
II. Respuestas sesgadas, transparencia y rendición de cuentas
La rendición de cuentas de la IA, entonces, es un tema complejo que implicaría, para los desarrolladores, el deber de responsabilizarse sobre las incumbencias de las decisiones y acciones tomadas por sus propios sistemas de inteligencia artificial. En este sentido, es importante no soslayar que las IA pueden tener una trascendencia significativa en las sociedades y en las vidas de las personas, por lo que es crucial garantizar que sea juicioso y transparente su funcionamiento.
Una de las principales preocupaciones en torno a la IA es la falta de nitidez en la toma de sus decisiones. En muchos casos, los algoritmos de IA están diseñados para asumir determinaciones en función de patrones y datos históricos, lo que puede llevar a resultados sesgados, inexactos o riesgosos. Por lo tanto, es fundamental que se comience a implementar (o por lo menos a proyectar) medidas contundentes para garantizar que la IA sea prístina en su funcionamiento, permitiendo identificar y abordar a los datos manipulados o tendenciosos.
Otra cuestión clave es la del sesgo que podría incluirse en lo producido por las Inteligencias. Los sistemas de IA son tan imparciales como los datos con los que están entrenados, lo que significa que si ellos han sido nocivamente operados o reflejan desigualdades u opiniones polémicas, el sistema de IA probablemente perpetuará esos sesgos. Esta es una preocupación seria en campos como la contratación y los préstamos bancarios2, donde los sistemas automatizados podrían presentar y sostener la discriminación o marginación contra ciertos grupos.
III. Responsabilidad y rendición de cuentas
De igual modo, otro aspecto importante en la rendición de cuentas de la IA es la responsabilidad por las decisiones y acciones tomadas por estos sistemas.
En términos generales, la responsabilidad se refiere a la capacidad de los sistemas de IA para actuar de manera ética y responsable, y para evitar causar menoscabo a los usuarios o al público en general. La rendición de cuentas, por otro lado, se refiere a la capacidad de los sistemas de IA para ser evaluados y supervisados, y para ser, en definitiva, responsables de sus acciones. Dicha nómina (responsabilidad y rendición de cuentas de la IA) entonces hace referencia a los valores que se incorporan en el desarrollo y en el uso de la mencionada tecnología. Por ejemplo, es importante que se tenga en cuenta la privacidad y la seguridad de los datos, la protección de los Derechos Humanos y el respeto a la diversidad y a la inclusión.
En algunos casos, la Inteligencia, con su capacidad autonómica de resolver, puede alcanzar un alto impacto dentro del tejido social (como en el caso de la toma de decisiones en el ámbito de la salud o la justicia). Es por ello fundamental que se empiecen a establecer mecanismos para “responsabilizar” o “controlar” a los científicos y organizaciones que desarrollan y utilizan la IA en caso de que produzcan errores o daños (aún accidentales).
IV. Conclusión
Para navegar estos y otros desafíos legales y éticos planteados por la IA, es esencial adoptar un enfoque proactivo. Esto comienza con la comprensión de los riesgos y beneficios potenciales de la IA y el diseño de sistemas que sean transparentes, explicables y responsables. También significa garantizar que los sistemas de IA estén sujetos a una regulación y supervisión adecuadas, y que las personas tengan derecho a impugnar las decisiones tomadas por las antedichas estructuras.
En general, la relación entre la ley y la IA es compleja y multifacética, y requerirá atención continua y una consideración cuidadosa para garantizar que los mecanismos de IA se desarrollen e implementen de manera justa y legalmente sólida.
Ciertos modelos de lenguaje de IA ya se han enfrentado a desafíos legales. Un ejemplo relevante es la tecnología de reconocimiento facial, que se ha implementado en diversos contextos (v.gr. la aplicación de la ley; el comercio minorista; el transporte; etc.).
En los Estados Unidos, por ejemplo, la tecnología de reconocimiento facial ha sido objeto de litigios debido a las preocupaciones sobre violaciones de privacidad y discriminación. En 2019, la Unión Americana de Libertades Civiles (ACLU) demandó al Departamento de Seguridad Nacional por usar tecnología de reconocimiento facial3 para identificar a los viajeros en los aeropuertos sin obtener consentimiento o sin proporcionar información clara sobre la precisión del sistema.
Del mismo modo, la tecnología de reconocimiento facial ha sido criticada por su potencial para reforzar y amplificar los prejuicios contra ciertos grupos, como las personas de color o las mujeres. En 2018, investigadores del MIT descubrieron que varios sistemas líderes de reconocimiento facial identificaron erróneamente a individuos y mujeres de piel más oscura a tasas más altas que las personas y hombres de piel más clara4.
Para abordar estos desafíos legales y éticos, los responsables políticos y reguladores han propuesto varias medidas, como prohibir o limitar el uso de la tecnología de reconocimiento facial en ciertos contextos, mejorar los requisitos de transparencia y consentimiento, y aumentar la rendición de cuentas y la supervisión de los sistemas de IA.
En general, la implementación de la IA plantea importantes cuestiones legales y éticas que requieren una cuidadosa consideración y medidas laboriosas para garantizar que estas tecnociencias promuevan el bienestar humano y la justicia social.
En resumen, la rendición de cuentas de la IA es un tema crucial que implica la transparencia, la responsabilidad y la ética en el desarrollo y uso de la tecnología de IA. Es necesario implementar medidas para garantizar que la IA sea consecuente e “inmaculada” en su articulación, y que se puedan abordar los sesgos y los errores. Además, se deben tener en cuenta los valores éticos y la responsabilidad social en el desarrollo y uso de la IA.
Autor: Abog. Leonardo Poses Stekelberg.
Fecha: feb-marz. 2023
1 PERIÑAN HERRERA, C., “Inteligencia artificial en los procesos judiciales”. https :// www. ambitojuridico. com/ noticias / ambito- del -lector/ inteligencia- artificial -en- los-procesos -judiciales #:~ :text =La %20IA %20 puede%20ser% 20utilizada %20por%20los%20jueces,que% 20producen%20los% 20juzgados%2C% 20tribunales%20 y%20altas %20cortes. (Consultado 02/03/2023).
2 DAVENPORT, T., BEAN, R., “Catching Up Fast by Driving Value From AI”. https :// sloanreview. mit. edu / article / catching- up-fast-by-driving-value-from-ai/. (Consultado 05/02/2023).
3 ACLU, “Face Recognition Technology”. https:// www.aclu.org /issues /privacy -technology /surveillance-technologies/face-recognition-technology. (Consultado 10/03/2023).
4 CYPHERS, B., SCHWARTZ, A., SHEARD, N., “Facial recognition isn't just face identification and verification: it's also photo grouping, racial analysis, real-time tracking, and more”. https: //www.eff .org/es /deeplinks/2021 /10/face-recognition-isnt-just -face-identification-and -verification. (Consultado 07/02/2023).
Comentarios
Publicar un comentario