ACERCA DE LA “RECOMENDACIÓN SOBRE LA ÉTICA DE LA INTELIGENCIA ARTIFICIAL” DE LA UNESCO (2021). ¿ES NECESARIA LA INTERVENCIÓN DEL DERECHO COMO HACEDOR DE NORMATIVAS DE “CUSTODIA” Y “LIMITACIÓN” DE SU ACTIVIDAD?
I. Introducción
El presente ubicuo de la Inteligencia Artificial (IA), permitió que prácticamente de un momento a otro se transforme en una ¿herramienta? empleada para un sinfín de objetivos, por millones de personas alrededor del mundo.
Como ejemplo, el chatbot de la compañía norteamericana OpenAI batió récords históricos alcanzando “los 100 millones de usuarios activos mensuales en enero”1 del corriente.
Por este motivo (y por algunos más), en noviembre del año 2021, la Asamblea General del mencionado organismo de las Naciones Unidas adoptó la “Recomendación sobre la ética de la inteligencia artificial”, en búsqueda de encaminar los primeros pasos para racionalizar (o concientizar) sobre la creación y aprovechamiento -éticos- de la referida tecnología; especialmente con miras a “reducir la posibilidad de usos indebidos”, aprovechando “todo el potencial que la IA puede aportar”2.
La UNESCO reconoce que la IA puede ser un instrumento poderoso para procesar grandes cantidades de datos e información en tiempo real, lo que ha llevado a avances significativos en diversas áreas (v.gr. en ámbitos tales como los Negocios o la Medicina). Sin embargo, también es consciente de que pueden tener consecuencias negativas, como el aumento de los prejuicios de género y étnicos, la amenaza a la privacidad y la dignidad, la disminución de la capacidad de acción y la vigilancia masiva.
Es importante tener en cuenta que la IA no es inherentemente “buena” o “mala”, sino que depende del uso que se le dé: si se implementa de manera responsable y ética, puede funcionar como una herramienta valiosa para abordar problemas complejos -hasta pudiendo mejorar la vida de las personas-. Por otro lado, si se utiliza de modo inapropiado, podría arrastrar graves secuelas para la sociedad en su conjunto.
La “Recomendación” establece principios virtuosos y directrices para el desarrollo y la implementación de la IA en todo el mundo. Estas instrucciones tienen como objetivo garantizar que las IA se desarrollen de manera responsable, respetando los Derechos Humanos y la dignidad de las personas, incluyendo la intimidad y la autonomía personal, entre otros tópicos.
El objetivo de esta presentación es inferir el rol que debe o debería desarrollar el Derecho -como ciencia humana- dentro de esta nueva realidad, moderna, innovadora, utópica, extraña, y que crece a velocidades a veces muy difíciles de alcanzar para el común de las personas.
II. Las IA y sus “cajas negras”
Las “cajas negras” (en el contexto de la inteligencia artificial) se refieren a modelos complejos de aprendizaje automático, que pueden predecir y tomar decisiones sin que se comprenda completamente su funcionamiento interno. Estos modelos son “negros” porque la entrada y salida de datos son conocidas, pero el proceso interno es brumoso e intrincado de entender.
En términos técnicos, las “cajas negras” son algoritmos de aprendizaje profundo que utilizan redes neuronales para procesar grandes cantidades de datos y producir resultados precisos. Estos algoritmos aprenden a partir de ejemplos -como imágenes o textos- ajustando sus “básculas” y parámetros para minimizar el error en el producto final. A medida que el sistema “se entrena” con más datos, se vuelve más preciso en la predicción, pero también se torna más complejo y difícil de interpretar.
La opacidad de las mencionadas cajas plantea desafíos importantes para la transparencia y la responsabilidad de sus desarrolladores. Si no se comprende completamente cómo se toman las decisiones, es difícil determinar si los dictámenes son “justos” o si se están produciendo sesgos, discriminación o ataques graves a la paz social. Por esta razón, la investigación en IA está tratando de germinar nuevas técnicas para explicar y comprender el funcionamiento interno de estas “black boxes”.3
La afirmación de que ninguna infraestructura tecnológica carece de gravitación social es un recordatorio importante de que todos los utensilios innovadores que utilizamos en la actualidad reflejan y reproducen las virtudes y defectos de las sociedades y de las personas (que las han creado, actualizado, perfeccionado). Esto es particularmente relevante en el caso de la inteligencia artificial, cuyo acervo de datos e informaciones se ha recolectado y procesado a partir de la interacción humana con tecnosistemas digitales.
Entonces, la caja negra de la IA puede ser considerada como un “microcosmos” dentro del colectivo humano; los algoritmos utilizados para procesar los datos que alimentan la Inteligencia están diseñados por mujeres y hombres, que, de hecho, pueden arrastrar prejuicios o puntos de vista sesgados que terminen reflejándose en los resultados (v.gr.: si los datos utilizados para entrenar un algoritmo de reconocimiento facial sólo incluyen imágenes de personas de una determinada raza o género, la IA puede tener dificultades para reconocer a integrantes de otras etnias).
Además, la tecnología de la IA también posee la capacidad de reproducir patrones sociales y culturales más amplios, que podrían culminar en consecuencias no deseadas o negativas. A modo de ilustración, los sistemas de sugerencias que utilizan las IA, pueden ofrecer y hasta perpetuar la discriminación, la polarización o el odio racial al recomendar contenidos que refuerzan las opiniones preexistentes de los usuarios, en lugar de exponerlos a perspectivas divergentes, opuestas o que permitan una apertura al diálogo o al consenso.
III. ¿Descarrilados?
La “Declaración de Montevideo sobre Inteligencia Artificial y su impacto en América Latina”4, rubricado en marzo de este año por decenas de científicos e investigadores de nuestra región, explica en uno de sus pasajes que “la implementación de IA debe cumplir con los principios rectores de los Derechos Humanos, respetar y representar diferencias culturales, geográficas, económicas, ideológicas, religiosas entre otras, y no reforzar estereotipos o profundizar la desigualdad”. Esto significa que al diseñar y utilizar sistemas de IA, se deben tener en cuenta los valores y cimientos universales de los Hombres; además, es importante que los algoritmos sean “sensibles” o “logren comprender” las diversas materialidades, receptando las diferencias culturales, geográficas, económicas, ideológicas, religiosas, entre otras; evitando, a su vez, el error de reforzar u ofrecer patrones (resultados) antijurídicos o inmorales.
Muchas de las empresas que desarrollan tecnologías de inteligencia artificial han iniciado una carrera desenfrenada -sobre todo en los últimos meses- buscando implementar sistemas de gran potencia y alcance, sin tomar en cuenta la planificación ni el control de los posibles riesgos asociados, incluyendo impactos adversos en empleos, salud, acceso (o restricción) a la cultura y a la protección de información. Sería necesario, a partir de esta actualidad, establecer medidas adecuadas de precaución y regulaciones -internas y/o internacionales- para asegurar que el uso de las IA no provoque impactos hostiles en la sociedad.
Sobre lo recién referido, expone el Dr. Martín Becerra que “(…) la carta del FLI [Future of Life Institute] se atreve a conminar a los gobiernos: la moratoria de 6 meses en «el entrenamiento de los sistemas de IA más potentes […] debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria»”. Agregando que “(…) en pocos días se produjo la primera intervención gubernamental reclamada por destacados voceros del sector privado de grandes firmas tecnológicas: Italia, a través de su Autoridad de Garantía de Protección de Datos, bloqueó temporalmente el funcionamiento de ChatGPT por llevar a cabo una «recogida ilegal de datos personales» y carecer de «sistemas para verificar la edad»”.5
Ahora bien, tampoco puede afirmarse -de manera general- que las sociedades del mundo están “descarriladas” por el uso sin control y sin regulación de los algoritmos de inteligencia artificial. Si bien es cierto que existen preocupaciones legítimas sobre el uso de las mismas en algunos sectores y bajo ciertos contextos, también debemos reconocer que hay una multiplicidad de aplicaciones beneficiosas de IA que podrían estar mejorando la calidad de vida de las personas y la eficiencia de las organizaciones.
También es cierto, como contrapartida, que la IA puede tener efectos no deseados si se utiliza de manera incorrecta o sin regulación adecuada. Por ejemplo, los algoritmos de IA utilizados en la toma de decisiones de contratación de personal, o en la evaluación crediticia de usuarios de la estructura bancaria, pueden ejercer mecanismos discriminatorios si se entrenan con datos sesgados o marcadamente perjudiciales para ciertos estamentos colectivos. Además, algunos sistemas de IA pueden ser explotados para difundir noticias falsas o crear perfiles de usuarios para fines malintencionados.
IV. ¿Qué dice específicamente la Recomendación de UNESCO?
La UNESCO, en el preámbulo de la presente Recomendación -de noviembre de 2021- admite específicamente la “intromisión” de estos novedosos algoritmos en la vida diaria de las personas “reconociendo las repercusiones positivas y negativas profundas y dinámicas de la inteligencia artificial (IA)”.6 En la actualidad, el uso de las tecnologías de la información y la comunicación (TIC) y las tecnologías de la inteligencia artificial se ha acelerado en la mayoría de los países del mundo. Estas tecnociencias van transformando la forma en que las personas interactúan entre sí, realizan sus actividades cotidianas y trabajan en sus respectivas industrias o profesiones. Por lo tanto, sería crucial un porvenir “entrenado” (y enmarcado en reglas jurídicas), en donde los ciudadanos mundiales tengan un nivel adecuado de “alfabetización mediática e informacional” para poder utilizar estas tecnologías de manera efectiva, beneficiosa y con la suficiente capacidad de discernimiento -o de análisis-, sobre los frutos producidos por dichos sistemas.
Además, sostienen puntualmente que la economía digital (en relación a las IA) presenta importantes desafíos sociales, económicos y ambientales. Por un lado, la creciente digitalización de la economía puede tener efectos negativos en la privacidad y seguridad de los ciudadanos. Por otro lado, la economía digital ofrece oportunidades para compartir los beneficios económicos a nivel global. Y como ejemplo, refieren a que el comercio electrónico ha permitido que pequeñas empresas y emprendedores puedan llegar a un público más amplio y a competir en igualdad de condiciones con grandes empresas. También, sostiene la Recomendación, ha facilitado la inclusión financiera y la reducción de la brecha digital.
En su amplio texto, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura continúa afirmando que el marco normativo para las tecnologías de la IA y sus implicaciones sociales, resulta un asunto de suma importancia en la actualidad: este marco se basa en diversas fuentes, entre ellas, reglas jurídicas internacionales y nacionales, que proporcionarían una base sólida para el desarrollo de políticas y regulaciones dentro de este novedoso ámbito.
Dicho marco se basa en los DD.HH. y en las libertades fundamentales, ya que resulta esencial asegurar que el desarrollo y uso de las tecnologías de IA no violen los derechos de las personas. Asimismo, la integridad juega un papel crucial en el escenario normativo, ya que se busca garantizar que las tecnologías de IA sean diseñadas y utilizadas de manera responsable y respetuosa con los valores y principios éticos.
V. Conclusión
Como corolario, sostengo -con más dudas que certezas- que las IA tienen un gran potencial para mejorar (o simplificar) nuestras experiencias cotidianas, pero a su vez también es menester reconocer y abordar sus posibles consecuencias negativas. La adopción de principios éticos y directrices para el desarrollo y la implementación de la IA es fundamental para garantizar que se utilice de manera responsable y en beneficio de la sociedad en su conjunto. Por lo tanto, es clave convenir que la tecnología de la IA no es neutral y que su uso y desarrollo deben ser cuidadosamente considerados y regulados. Esto implica una mayor conciencia de los posibles sesgos y prejuicios que puedan estar presentes en los datos utilizados para entrenar la IA, así como la implementación de prácticas de transparencia y rendición de cuentas, que permitan a los usuarios comprender mejor cómo se toman las decisiones automatizadas. En última instancia, la tecnología de la IA debe ser vista como una herramienta poderosa aunque compleja, que requiere un enfoque cuidadoso y crítico para su uso efectivo y provechoso.
El Derecho (como sistema de principios y normas que tiene como inspiración común las ideas de justicia y orden), indudablemente es llamado a ejercer un rol principal dentro del presente -y del futuro- de esta ciencia de avanzada, que si bien -y como expresé líneas arriba- ofrece un potencial inimaginable e incalculable, también pide a gritos la intervención reglada y por momentos limitante de las distintas legislaciones.
Por lo tanto, es de suma importancia que gobiernos, juristas, expertos, etc. trabajen juntos para abordar estos desafíos sociales, económicos y ambientales; ya que la aceleración del uso de las TIC y las tecnologías de la IA -expresado supra- presenta tanto desafíos como oportunidades para los ciudadanos y las Administraciones de todo el mundo. La alfabetización mediática e informacional -insisto- y la colaboración entre el sector público y privado son cruciales para aprovechar las oportunidades y abordar los desafíos de esta novedosa forma de vida digital.
1 FORBES México, “ChatGPT bate el récord de crecimiento más rápido de usuarios en la historia”. https: //www.forbes.com.mx /chatgpt- bate-el-record-de-crecimiento-mas-rapido- de- usuarios-en-la-historia/#:~:text = Se%20 calcula% 20que%20 ChatGPT%2C%20el%2 0popular%20%E2 %80%9Cchatbot%E2%80%9D%20de,seg%C3%Ban% 20un%20estudio %20de%20UBS% 20 publicado%20el%20mi%C3 %A9rcoles. (Consultado 10/04/2023).
2 UNESCO, “Recomendación sobre la Ética de la Inteligencia Artificial”. https://www.unesco.org/es /legal-affairs/ recommendation-ethics-artificial-intelligence#item-0. (Consultado 10/04/2023).
3 OPENWEBINARS. “Qué es black box testing o pruebas de caja negra”. https://openwebinars.net/blog/que-es-black-box-testing-o-pruebas-de-caja-negra/. (Consultado 13/04/2023).
4 FUNDACIÓN SADOSKY. “Declaración de Montevideo sobre Inteligencia Artificial y su impacto en América Latina”. https ://www.fundacionsadosky.org.ar /declaracion -de-montevideo -sobre -inteligencia -artificial- y-su-impacto-en -america-latina/. (Consultado 09/04/2023).
5 BECERRA, M. “Fascinación, pánico y oportunidad”. https://accion.coop/opinion/fascinacion-panico-y-oportunidad/. (Consultado 12/04/2023).
6 UNESCO, Op. Cit.
Autor: Abog. Leonardo Poses Stekelberg.
Fecha: Abril 2023.
Comentarios
Publicar un comentario