Por Eduardo M. FAVIER DUBOIS.
1.-INNOVACIÓN VS. REGULACIÓN.
La relación entre la regulación económica y la innovación tecnológica genera tensiones entre lo normativo y lo fáctico ya que la regulación puede tanto incentivar la innovación como estancarla, al tiempo que la innovación tecnológica puede dejar obsoleta la regulación, o bien abrirle nuevos senderos para su expansión
Ante ello aparecen diversas alternativas: no regular la innovación tecnológica en forma específica, regularla mediante una norma específica o aplicarle una regulación pensada para un servicio o actividad preexistente. Para ello deben tenerse en cuenta diversas situaciones tales como la imposibilidad legal de prohibir las innovaciones, la atención de “fallas del mercado”, la eficiencia, la protección del consumidor, el derecho de competencia, el disfrute de los avances tecnológicos, y los derechos humanos, debiendo cualquier regulación sujetarse a los principios de legalidad y razonabilidad.
2.-RIESGOS DE LA INTELIGENCIA ARTIFICIAL.
i.-En el caso del GPT.
En el caso de la inteligencia artificial, y especialmente a partir de la difusión de los modelos generativos (GPT, etc.), hay consenso mayoritario en doctrina sobre la necesidad de una regulación en atención a la inmensa cantidad de riesgos que se van verificando.
En general, presenta los problemas de los sesgos ya que si el algoritmo aprende de aquello que lee y, por tanto, si se lo entrena a partir de textos de internet, pueden colarse sesgos de género, racismo, edadismo, etc.
Por otra parte, existe un reclamo desde los derechos de propiedad intelectual ya que el chat toma y reproduce toda la información de la web que incluye trabajos protegidos.
También puede dar lugar a fraudes de autoría por parte de alumnos, escritores o periodistas. De hecho ya se han creado aplicaciones para permitir a los profesores detectar cuando un texto fue escrito por la I.A. en base a su modo de funcionamiento y a los patrones que utiliza.
Debido a que GPT puede «generar artículos de noticias que los evaluadores humanos tienen dificultades para distinguir de los artículos escritos por humanos», GPT tiene el «potencial de avanzar tanto en las aplicaciones beneficiosas como perjudiciales de los modelos de lenguaje». Al respecto, los investigadores describen en detalle los posibles «efectos perjudiciales de GPT», que incluyen «desinformación, spam, phishing, abuso de procesos legales y gubernamentales, redacción fraudulenta de ensayos académicos y pretextos de ingeniería social».
Finalmente, un artículo en el MIT Technology Review declaró que GPT carece de «comprensión del mundo» por lo que realmente «no se puede confiar en lo que dice», refiriéndose a que modelos como los de GPT solo analizan la relación entre palabras (sintaxis) sin un análisis del significado de las palabras (semántica).
Frente a todo ello, una de las medidas que se proponen es hacer obligatorias las auditorías algorítmicas y las evaluaciones de impacto sobre este tipo de chats, lo que permitiría el conocimiento de los usuarios y la aplicación de las medidas regulatorias correspondientes.
También se sostiene la necesidad de un uso responsable de la inteligencia artificial generativa, especialmente de los agentes conversacionales, en particular en las instrucciones o promts
ii.-Los algoritmos de caja negra
La “explicabilidad” de un sistema de I.A. consiste en su capacidad de exteriorizar —o explicar— qué información y que lógica utilizó para arribar a una decisión determinada, de una forma entendible para un ser humano.
La tecnología de Deep Learning utiliza Redes Neuronales Artificiales compuestas por una gran cantidad de unidades de procesamiento simple (neuronas) interconectadas entre sí y organizadas en múltiples capas (input, capas ocultas y output). En el proceso de entrenamiento, se va modificando en forma automática la relevancia de las distintas conexiones que unen a las neuronas, de manera de reducir al máximo en error en sus predicciones. De tal forma, cuando comienza a operar, es muy difícil —si no imposible—, determinar la forma en que arriba a una conclusión determinada. El sistema ya entrenado, se convierte en un algoritmo distinto al que diseñaron sus creadores al inicio: es muy difícil conocer lo que sucede en sus capas ocultas de neuronas y qué elementos relevantes de los datos que le presentan toma en cuenta para arribar a una decisión. Por eso se los denomina algoritmos de caja negra: uno sabe lo que ingresa a la caja (capa de input) y lo que sale de ella (capa de output), pero ignora lo que ocurre en su interior (capas ocultas).
Si bien las RNA permiten alcanzar un gran nivel de precisión y constituyen hoy la tecnología más poderosa, la imposibilidad de explicarse —para que podamos conocer la forma en que deciden— condiciona negativamente su uso en áreas críticas para los derechos de las personas.
Los especialistas señalan que es necesario un alto grado de explicabilidad en las siguientes áreas:
— Asuntos judiciales y de la administración pública.
— Diagnóstico médico y cuidado de la salud.
— Servicios financieros y de seguros.
— Vehículos autónomos.
— Sistemas bélicos.
En las áreas judicial y administrativa, donde se definen derechos sustanciales de las personas y no se requieren sistemas de alta performance, resulta aconsejable utilizar técnicas de ML menos complejas y que utilizan menos datos (Small Data), y son capaces de explicar su proceso lógico (v.gr., árboles de decisión).
iii.-Otros riesgos.
También los algoritmos pueden utilizarse para manipular y dirigir nuestro comportamiento sin que ni siquiera seamos conscientes de lo que está pasando.
Ante los riesgos de su potenciación, mal uso, sesgos, invasión de la privacidad, manipulación intelectual y pérdida del control humano sobre la I.A. han ido apareciendo en los últimos tiempos algunas propuestas regulatorias, reglas éticas y principios de comportamiento, como así algunas normas específicas que se señalan a continuación.
A ello se suma que para algunas opiniones, que compartimos, la inteligencia artificial no es una técnica computacional neutral sino que implica sistemas integrados en mundos sociales, políticos, culturales y económicos, delineados por humanos o instituciones con imperativos que determinan lo que hacen y lo que no hacen en beneficio de los Estados, instituciones y corporaciones a las que sirven.
3.-ALGUNOS MODELOS REGULATORIOS.
Establecida la necesidad de regular aparecen los debates en cuanto a las formas y alcances de las diversas regulaciones.
En primer lugar, y siguiendo en este punto al valioso trabajo de Andrés Gil Dominguez, podemos señalar tres modelos ideales posibles: el “hiperregulado”, el “co-evolutivo” y el “de contención”.
3.1.-MODELO PREVENTIVO HIPERREGULADO.
Primero regulación y luego invención.
El modelo preventivo hiperregulado presenta como principal característica un extremo nivel de regulación que impone controles muy estrictos y detallados sobre todos los aspectos del desarrollo y uso de la IA. Las regulaciones son exhaustivas y proactivas, buscando minimizar los riesgos potenciales antes de que puedan materializarse. Aunque puede garantizar un alto nivel de seguridad y control, también corre el riesgo de limitar la innovación y la flexibilidad tecnológica. Primero apuesta a la prohibición de la IA y luego al desarrollo, pero bajo el sometimiento al ser humano desde una posición antropocéntrica.
Un ejemplo es el Reglamento de inteligencia artificial de la Unión Europea, aprobado por el Parlamento Europeo en 2024 (ver infra).
3.2.-MODELO DE EQUILIBRIO Y CONTENCIÓN.
Paralelismo entre invención y regulación.
El modelo de contención persigue equilibrar la prevención de riesgos y el fomento de la innovación. Propone una evaluación cuidadosa y continua de los riesgos asociados con la IA, implementando medidas de contención para prevenir daños, mientras se promueve el desarrollo de tecnologías que ofrezcan beneficios significativos. Desde el punto de vista jurídico, se caracteriza por un enfoque proactivo y flexible, que busca garantizar que el desarrollo de la IA sea responsable, seguro y beneficioso para la humanidad. Apuesta de manera sincrónica al desarrollo de la IA y a procedimientos de control basados en la contención. Entre los principios que se postulan pueden mencionarse los siguientes: a) incorporar a la enseñanza, formación y sensibilización de las futuras generaciones todo lo relacionado con la IA; b) interpretar y comprender el fenómeno para poder prever futuras situaciones de conflictividad; c) incorporar políticas públicas que acompañen la regulación de IA; d) generar procesos que tiendan a gobernar o gestionar el riesgo; e) desarrollar un marco que aborde la regulación a partir de una perspectiva que incluya a los usuarios, desarrolladores y proveedores de IA; e) encontrar un equilibrio en la regulación sin perjudicar la innovación promoviendo la industria del conocimiento partiendo de la idiosincrasia local; f) prever la implementación de sandboxes de IA (entornos de prueba aislados y controlados donde se pueden experimentar, desarrollar y evaluar algoritmos y modelos de IA de manera segura)
3.3.-MODELO CO-EVOLUTIVO REACTIVO.
Primero invención y luego regulación.
En el modelo co-evolutivo primero se establece la existencia de la IA y el despliegue beneficioso de la IA centrada en la coexistencia humana tecnológica y después se establece los procesos de control. O sea que primero se desarrolle la IA (con sus respectivos beneficios) y después se establezcan los procedimientos de control. Vale decir que la regulación de la IA se desarrolle de manera conjunta con la evolución de la tecnología. Propone un marco legal adaptable y dinámico que puede ajustarse a medida que avanzan las capacidades y aplicaciones de la IA. Fomenta la colaboración entre legisladores, desarrolladores, académicos y otros actores para asegurar que las normativas se mantengan relevantes y efectivas ante el rápido progreso tecnológico. Plantea los siguientes principios: a) mínima regulación previa; b) consideración de la “sintencia” digital; c) acompañamiento activo de la co-evolución humano-digital; d) perspectiva tecnológica y transhumanista.
Un ejemplo fue la resolución del Parlamento Europeo del 16 de febrero de 2017 que, en el marco de la responsabilidad civil, sostuvo que a largo plazo se cree una personalidad jurídica específica para que los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños.
3.4.-MODELO INSTRUMENTAL.
También se proponen algunas medidas metodológicas, para cualquier modelo, como la creación de un sistema de gobernanza basado en el consenso, la cooperación y la certificación entre los actores involucrados de la IA, tanto públicos como privados, y la adopción de estándares de “compliance” o cumplimiento normativo por parte de las organizaciones que usan o desarrollan la IA, con análisis de riesgos, códigos de conducta, controles, capacitación y difusión, mecanismos de detección y sanción, institucionalización y auditorias internas.
4.-PROPUESTA DEL ÓRGANO ASESOR DE LA O.N.U.
El Órgano Asesor de Inteligencia Artificial (OAIA), de la ONU, publicó un informe en el año 2023 en el que analiza los beneficios de la I.A. y también sus múltiples riesgos y desafíos proponiendo algunos “principios rectores” como son los siguientes: 1.-Inclusión y beneficio de todos; 2.-interés público; 3.-sintonía con la gobernanza de datos; 4.-universal y en red; y 5.-anclada en las normas de las Naciones Unidas. Además, señala siete funciones institucionales críticas para la gobernanza de la I.A. vinculadas a la evaluación, interoperabilidad, armonización de estándares, cooperación y facilitación, colaboración, monitoreo de riesgos y rendiciones de cuentas
5.-RECOMENDACIONES ÉTICAS DE LA UNESCO.
En noviembre de 2021, los 193 Estados miembros de la Conferencia General de la UNESCO adoptaron la Recomendación sobre la Ética de la Inteligencia Artificial, siendo este el primer instrumento normativo mundial sobre el tema
Los principales puntos de la Recomendación son los siguientes:
Impacto ético: Se establece una serie de principios éticos que deben guiar el desarrollo y la implementación de la IA. Estos principios incluyen el respeto a los derechos humanos, la transparencia, la justicia, la diversidad, la sostenibilidad y la responsabilidad.
Igualdad y no discriminación: La recomendación enfatiza la importancia de garantizar la igualdad y la no discriminación en el desarrollo y uso de la IA. Se insta a evitar la creación o ampliación de brechas sociales y a evitar sesgos.
Participación pública: La recomendación promueve la participación ciudadana en la toma de decisiones relacionadas con la IA. Se alienta a la consulta y el diálogo con una amplia gama de partes interesadas, incluidos grupos marginalizados y comunidades locales.
Educación y habilidades: La recomendación destaca la necesidad de desarrollar programas de educación y formación que promuevan la comprensión de la IA y fomenten las habilidades necesarias para su uso ético y responsable.
Acceso universal: La recomendación subraya la importancia de garantizar un acceso equitativo a la IA y sus beneficios. Se insta a reducir la brecha digital y promover la inclusión digital para que todas las personas puedan beneficiarse de la IA.
Protección de datos y privacidad: La recomendación aborda la necesidad de proteger los datos personales y la privacidad en el contexto de la IA. Se destaca la importancia de obtener el consentimiento informado de las personas y de asegurar la seguridad de los datos recopilados.
Cooperación internacional: La recomendación enfatiza la importancia de la cooperación internacional en la gobernanza de la IA. Se insta a los miembros y a las partes interesadas a colaborar en el intercambio de conocimientos, la creación de estándares comunes y la promoción de buenas prácticas a nivel global.
6.-ORDENES EJECUTIVAS DEL GOBIERNO DE USA.
En materia regulatoria la situación en USA cambió de un lado al otro.
En un primer momento, hubo una Orden Ejecutiva del presidente Biden del 30 de octubre de 2023 fijando la posición y la visión del Gobierno Federal de EEUU para el “desarrollo y uso seguro y confiable de la Inteligencia Artificial.
Esta orden ejecutiva presidencial exige a los creadores de modelos generativos de IA que puedan suponer un «grave riesgo» para la seguridad nacional, la seguridad económica nacional o la salud pública nacional que notifiquen al gobierno federal el entrenamiento de un modelo de este tipo. Asimismo, la norma pide al Instituto Nacional de Normalización y Tecnología (NIST) que establezca nuevos estándares para la realización de pruebas exhaustivas en los equipos de desarrollo antes de la publicación de un nuevo modelo fundacional.
También se sostiene la necesidad de una “Carta de Derechos de la Inteligencia Artificial”, tomando como base los cinco principios elaborados por la Oficina de Políticas, Ciencia y Tecnología de la Casa Blanca (USA) que, en simetría con la “Bill of rights” del Reino Unido, buscaban limitar las potestades de los gobernantes. Ahora son los gobernantes los que deben limitar el potencial dañino de la amplitud de la inteligencia artificial.
Dicho sistema fue derogado por el gobierno de Trump sosteniendo que implicaba trabas a las empresas que dictó la Orden Ejecutiva 14179: «Eliminando Barreras al Liderazgo Estadounidense en Inteligencia Artificial» Esta orden tiene como objetivo facilitar la innovación en IA y mantener el liderazgo global de Estados Unidos en este campo, fijando un plazo de 180 días para que distintos organismos federales presenten un plan de acción.
7.-REGLAMENTACIÓN DE LA UNIÓN EUROPEA.
7.1.-ASPECTOS GENERALES.
El 13 de junio de 2024 el Parlamento Europeo aprobó el Reglamento de Inteligencia Artificial con vigencia a partir del 1 de Agosto de 2024 conocida como Ley de IA de la UE o EU AI Act (Regulación UE 2024/1689).
Sin embargo, se ha previsto una aplicación gradual de las distintas disposiciones que van de los seis a los veinticuatro meses.
Tiene por objeto proporcionar a los proveedores, importadores, distribuidores y a los responsables del despliegue o implementación de los sistemas de la IA requisitos y obligaciones claros con respecto a los usos específicos del IA configurando un marco regulatorio horizontal, no limitado a sectores concretos.
En términos de alcance, el reglamento cubre tanto la IA desarrollada en la UE como la importada de fuera de la UE y utilizada en el territorio del bloque regional.
El Reglamento define al Sistema de Inteligencia Artificial (SIA) como “aquel que opera con elementos de autonomía y que, basándose en datos y entradas obtenidos de humanos o máquinas, infiere cómo alcanzar unos objetivos propuestos, usando para ello técnicas basadas en el aprendizaje-máquina o en lógica y conocimiento, y genera como salida contenidos, predicciones, recomendaciones o decisiones que influyen en el entorno con el que el sistema interactúa”.
7.2.-SISTEMAS DE RIESGO.
El Reglamento cuenta con un novedoso enfoque en la clasificación de los sistemas de IA según el nivel de riesgo que representa para los derechos fundamentales de las personas: Sistemas de Riesgo Inaceptable, de Alto Riesgo, de Riesgo Limitado y de Riesgo Mínimo.
No establece normas vinculantes para los sistemas que no generan riesgos relevantes, favoreciendo la adopción voluntaria de códigos de conducta, como ya se adelantó en el “Libro blanco” del 19 de febrero de 2020.
a.-Riesgo inaceptable
Los sistemas con IA con riesgo inaceptable son prohibidos por el RIA y son los siguientes:
– Sistemas de IA que manipulen comportamientos humanos: Por ejemplo, aquellos que utilizan técnicas subliminales para influir en personas de manera que las hagan actuar contra sus intereses.
– Puntuaciones sociales: La utilización de IA por parte de las autoridades públicas para puntuar a los ciudadanos basándose en su comportamiento social.
– Reconocimiento facial en tiempo real en espacios públicos: Con excepciones muy limitadas, como la búsqueda de un sospechoso de un crimen grave.
-Identificación biométrica remota en tiempo real de personas en lugares públicos con fines policiales y los sistemas de crédito social (conocido también en inglés como social scoring y que se aplican en China).
Sin embargo, hay algunas excepciones respecto del poder de policía, como la búsqueda de personas desaparecidas o la prevención de atentados terroristas.
b.-Riesgo alto
Los sistemas de IA considerados de alto riesgo están sujetos a estrictos requisitos debido a su potencial impacto en la seguridad o los derechos fundamentales. Las áreas cubiertas por esta categoría incluyen:
– Infraestructura crítica: como la energía y el transporte, donde fallos en los sistemas de IA podrían poner en riesgo la vida o la salud.
– Educación y formación profesional: sistemas que determinan el acceso a la educación o la carrera profesional de una persona.
– Empleo y gestión de trabajadores: IA utilizada en procesos de contratación, evaluación de desempeño y terminación de contratos.
– Servicios esenciales: como la banca y los servicios públicos, donde errores en los sistemas de IA podrían afectar significativamente a los ciudadanos.
Para los desarrolladores y usuarios de sistemas de IA de alto riesgo, el reglamento impone varias obligaciones:
– Gestión de riesgos: Implementar un sistema de gestión de riesgos para identificar, analizar y mitigar los riesgos potenciales.
– Documentación técnica: Mantener una documentación técnica detallada que permita evaluar la conformidad del sistema de IA con los requisitos del reglamento.
– Transparencia y provisión de información: Proveer información clara y comprensible sobre el funcionamiento del sistema de IA y sus limitaciones.
– Supervisión humana: Asegurar que los sistemas de IA de alto riesgo estén sujetos a supervisión humana adecuada para prevenir y mitigar riesgos.
– Registro y trazabilidad: Mantener registros de las operaciones del sistema de IA para garantizar la trazabilidad de sus decisiones.
c.-Riesgo limitado
Para los sistemas de IA considerados de riesgo limitado, el Reglamento establece menos obligaciones, pero aun así requiere ciertas medidas para garantizar la transparencia y la responsabilidad. Los usuarios de estos sistemas deben:
– Proveer notificaciones: Informar a los usuarios cuando están interactuando con un sistema de IA, a menos que sea evidente por el contexto.
– Permitir la supervisión humana: Asegurar que existan mecanismos para la correcta supervisión humana cuando sea necesario (por ejemplo, profesiones como Abogados, Médicos, Arquitectos, Ingenieros, etc.).
Estos sistemas son aquellos que interactúan con personas mediante aprendizaje automático, como por ejemplo las IA generativas como ChatGPT o Gemini de Google.
d.-Riesgo mínimo.
No se establecen obligaciones específicas para las aplicaciones de IA que no estén incluidas dentro de las categorías anteriores, como sería el caso de los video juegos, pero ello no implica que no de deban atender y gestionar los riesgos legales derivados del uso de la IA que puedan implicar ilícitos en materias relacionadas con Propiedad Intelectual, Protección de Datos, Confidencialidad, Secreto empresarial, Ciberseguridad, Defensa de Consumidores y Usuarios, Derecho Laboral, Derecho Civil, Derecho Penal etc.
7.3.-APOYO A LA INNOVACIÓN.
Paralelamente se implementan medidas de apoyo a la innovación al establecer que los Estados miembros velarán por que sus autoridades competentes establezcan al menos un espacio aislado de regulación de la IA a escala nacional que proporcionarán un entorno controlado que fomente la innovación y facilite el desarrollo, la formación, las pruebas y la validación de sistemas innovadores de IA. Ello durante un tiempo limitado antes de su comercialización o puesta en servicio con arreglo a un plan específico de entorno aislado acordado entre los proveedores o posibles proveedores y la autoridad competente.
Se trata de los denominados “sandbox” que son espacios desregulados para probar productos y servicios innovadores, que permitirían fomentar la innovación al reducir las barreras regulatorias y los costos de las pruebas de tecnologías disruptivas, al mismo tiempo que se garantizaría la protección de los consumidores
7.4.-CONTROL Y SANCIONES.
Se establece que cada Estado miembro establecerá o designará al menos una autoridad notificante y al menos una autoridad de vigilancia del mercado como autoridades nacionales competentes a los efectos del RIA, las que ejercerán sus poderes de manera independiente, imparcial y sin sesgos.
La Oficina de Inteligencia Artificial de la UE será la encargada de coordinar las actividades regulatorias y de supervisión, asegurando una aplicación coherente y eficaz del reglamento en todos los Estados miembros
Las infracciones pueden resultar en sanciones significativas, con multas que pueden llegar hasta el 7% del volumen de negocios anual global de la empresa infractora o 35 millones de euros, lo que sea mayor.
7.5.-VALORACIONES.
Ha recibido elogios por su enfoque basado en el riesgo, su énfasis en la transparencia y la responsabilidad que buscan posicionar a la UE como líder en la regulación ética y efectiva del campo de la IA.
También críticas, sobre todo desde la industria tecnológica, sosteniéndose que limitará la innovación, generará incertidumbre jurídica y sobrerregulación, así como aumentos injustificados en los costos de cumplimiento.
8.-SITUACION EN ARGENTINA.
En nuestro país no existe ley específica alguna que regule la utilización de la IA no obstante que existen presentados diversos proyectos que proponen su regulación en diferentes ámbitos.
En la actualidad las normativas sobre el tema son las siguientes:
-Programa de transparencia y protección de datos personales en el uso de la Inteligencia Artificial – Resolución 161/2023 de la Agencia de Acceso a la Información Pública;
-Creación de una Mesa Interministerial sobre Inteligencia Artificial en la órbita de la Jefatura de Gabinete de Ministros – Decisión Administrativa 750/2023, modificada por Decisión 899/2024.
-Programa de Inteligencia Artificial bajo la órbita de la Dirección Nacional de Gestión del Conocimiento —Resolución 90/2021 de la Secretaría de Asuntos Estratégicos—. Dichas normas se basan sobre todo en estándares internacionales que surgen de distintos instrumentos. Entre otros la Recomendación del Consejo sobre Inteligencia Artificial, adoptada en mayo de 2019 por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y entre los países socios, esta Argentina.
-Comunicación “A” 7724 del Banco Central que actualiza los “requisitos técnicos mínimos de ciber-seguridad” que deben cumplir las entidades financieras, debiendo “identificar y documentar el propósito del uso, por sí mismas o por terceros, de software que utilice IA o algoritmos de aprendizaje automático en sus procesos”
-“Recomendaciones para una Inteligencia Artificial Fiable”, aprobadas mediante la Disposición Nº 2/2023 de la Subsecretaría de Tecnologías de la Información; Esta medida tiene como objetivo establecer reglas claras para garantizar que los beneficios de los avances tecnológicos sean aprovechados por todos los sectores de la sociedad, fortaleciendo el ecosistema científico y tecnológico argentino.2585
Entre las principales recomendaciones se destacan:
la importancia de no forzar el uso de IA, resaltando que ésta no siempre es la mejor herramienta para abordar un problema específico.
la responsabilidad y supervisión deben recaer siempre en los seres humanos, ya que la IA sólo ejecuta acciones en respuesta a solicitudes humanas.
la conformación de equipos diversos y multidisciplinarios, conscientes de los desafíos éticos de los proyectos de IA.
la calidad y el tratamiento adecuado de los datos,
el diseño de modelos transparentes y explicables,
la implementación segura y auditable, y
la garantía de atención humana para aquellos que la necesiten.
-Resolución 710/2024 creó la Unidad de Inteligencia Artificial Aplicada a la Seguridad.
O sea que lo que existen hasta ahora son recomendaciones y sigue siendo necesaria una ley regulatoria de la IA en el país.
9.-LA NECESARIA REGULACIÓN DE LA INTELIGENCIA ARTIFICIAL.
Ante los riesgos de su potenciación, mal uso, sesgos, invasión de la privacidad, manipulación intelectual y pérdida del control humano sobre la I.A. los desafíos éticos y regulatorios son básicamente los siguientes:
a) determinar previamente los concretos campos de aplicación en los cuáles vamos a trasladar o reemplazar el pensamiento y las decisiones humanas por el pensamiento y las decisiones de la “I.A.” (vida personal, consumos, vida social, administraciones, decisiones judiciales, decisiones políticas, etc.).
b) evitar la afectación del derecho a la privacidad y la derivada manipulación de las ideas, pensamientos y conductas personales (neuroderechos)
c) preservar la transparencia de los criterios tenidos en cuenta por los algoritmos frente a su natural opacidad
d) establecer un sistema de individualización, registración y responsabilidades por la “I.A.”
e) establecer organismos públicos, por ley y bajo control de expertos de la sociedad civil, que supervisen el desarrollo y que puedan suspender las aplicaciones de la I.A. en áreas cuyas consecuencias no pueden aún evaluarse.
f) resguardar siempre el indispensable control de la autonomía de pensamiento de la “I.A.” por parte de los humanos y la posibilidad de su desconexión inmediata.
Sobre esto último, recordemos una vez más que nos encontramos en frente de tecnología no solo autónoma, sino también que va desarrollándose continuamente, volviéndose más poderosa y sofisticada en términos de capacidad, por lo que excluir el riesgo de que la I.A. actúe por su propia cuenta, contra los designios humanos, sería entrar en una simplificación que no conviene descartar a la hora de regular las Políticas Públicas pertinentes
Finalmente, cabe destacar que para algunas opiniones, la inteligencia artificial no es solo una técnica computacional neutral sino que implica sistemas integrados en mundos sociales, políticos, culturales y económicos, delineados por humanos, instituciones e imperativos que determinan lo que hacen y lo que no hacen en beneficio de los Estados, instituciones y corporaciones a las que sirven, lo que convierte a la regulación en un imperativo categórico.
.