Publicado en La Ley, 10-10-24, TR LALEY AR/DOC/2477/2024.
INTELIGENCIA ARTIFICIAL, ROBÓTICA Y DERECHO COMERCIAL: PANORAMA, IMPACTOS Y DESAFÍOS.
Eduardo M. FAVIER DUBOIS
INTRODUCCIÓN.
El Derecho Comercial, en su doble función de facilitar los negocios y de fijar sus límites, regula a las empresas (mediante las reglas societarias, empresariales y concursales), a los negocios (mediante los contratos y el sistema del crédito) y a los mercados (competencia, bancos, capitales, seguros, etc).
La aparición de la robótica y de la inteligencia artificial en la cuarta revolución industrial, y su crecimiento continuo y exponencial, implican una enorme disrupción del modo de llevar adelante la vida humana, la sociedad y también los negocios.
Ello plantea serios desafíos humanos, sociales y jurídicos, los que incluyen trascendentes áreas del derecho comercial como son, entre otras posibles, las de los sujetos comerciales, la administración societaria, la estructura fabril de las empresas, las calificadoras de crédito, las aseguradoras y la atención de los litigios mercantiles que se dirimen en los sistemas de arbitraje y procedimientos concursales.
El objeto de este trabajo es brindar un panorama breve y general sobre la robótica y la inteligencia artificial y un cuadro de situación sobre los actuales impactos, riesgos y desafíos para las instituciones comerciales referidas.
Siempre a título de propuestas para los lectores sujetas al juego dialéctico del pensamiento.
I.-ROBÓTICA E INTELIGENCIA ARTIFICIAL.
1.-LA ROBOTICA.
1.1.-CONCEPTO DE “ROBOT”.
Un robot puede conceptuarse como una máquina con capacidad y propósito de movimiento en el mundo físico que puede desarrollar múltiples tareas de manera flexible según su programación y percepción del entorno, en un grado que le permite diferenciarse de algún electrodoméstico específico.
No obstante, no hay un consenso sobre qué máquinas pueden ser consideradas o no robots, pero sí existe un acuerdo general entre los expertos y el público sobre que los robots tienden a hacer parte o todo lo que sigue: moverse, hacer funcionar un brazo mecánico, sentir y manipular su entorno y mostrar un comportamiento inteligente, especialmente si ese comportamiento imita al de los humanos o al de algunos animales.
Por eso se considera en algunos trabajos que no hay que adoptar una definición única de robot y se aboga por un estudio caso por caso. “No puedes tratar las prótesis robóticas como los coches inteligentes, son muy diferentes los unos de los otros, son problemas diferentes con soluciones diferentes”, asegura Bertolini, investigador de Pisa.
1.2.-CLASES.
Según sus formas y estructuras, se clasifican del siguiente modo:
i.-“Robot”, que es una máquina o ingenio electrónico programable, capaz de manipular objetos y realizar operaciones antes reservadas solo a las personas.
Dentro de esta categoría encontramos los robots Móviles (rodantes), Zoomórficos: (locomoción imitando a los animales); Poli-articulados y el Brazo robótico, destinado a tareas de precisión en la producción industrial.
Por otro lado, según su utilidad, los “robots” pueden ser comerciales-industriales o especiales.
En la actualidad, los robots comerciales-industriales se utilizan ampliamente y realizan tareas de forma más precisa o con menores costos que las hechas por humanos. También se emplean en trabajos demasiado sucios, muy peligrosos o tediosos para los humanos. Los robots se usan en plantas de manufactura, montaje y embalaje, en transporte, y en la producción en masa de bienes industriales o de consumo. Otras aplicaciones incluyen la limpieza de residuos tóxicos, minería, búsqueda y rescate de personas y localización de minas terrestres.
También existen los robots especiales para tareas de cuidado de niños y de adultos, los de cirugías y demás usos médicos y los de laboratorios, los de exploraciones y los robots de usos militares. Los drones pueden integrar esta última categoría.
ii.-“Androide”, que es el nombre que se le da a un robot antropomorfo
iii.-“Cyborg”, es una palabra que se utiliza para designar una criatura medio orgánica y medio mecánica,
1.3.-LOS VEHICULOS AUTONOMOS.
El vehículo autónomo es un robot con estructura de vehículo capaz de imitar las capacidades humanas de manejo y control. Como vehículo autónomo, es capaz de percibir el medio que le rodea y navegar en consecuencia. El conductor podrá elegir el destino, pero no se le requiere para activar ninguna operación mecánica del vehículo.
Los vehículos perciben el entorno mediante técnicas complejas como láser, radar, lidar, sistema de posicionamiento global y visión computarizada. Los sistemas avanzados de control interpretan la información para identificar la ruta apropiada, así como los obstáculos y la señalización relevante.
En el mundo hay varios programas activos, pero para su implantación definitiva se requiere de un ajuste de varios aspectos derivados de la seguridad vial y en materia de seguros porque ha habido algunos accidentes.
Se plantea, cuando la responsabilidad de un accidente de tránsito deje de ser del conductor porque los coches autónomos circulen por las carreteras, ¿quién será el responsable? ¿El fabricante o el desarrollador del ‘software’? ¿Y si un humano ha modificado las características del ‘software’, ya sea un ciberatacante o incluso el propietario?
2.-LA INTELIGENCIA ARTIFICIAL
2.1.-CONCEPTOS.
Puede describirse a la Inteligencia artificial como un sistema de software y hardware que pretende emular al razonamiento humano con el objeto de hacer informes, predicciones, recomendaciones y/o decisiones que influyan en entornos reales o virtuales.
El objetivo de la I.A. es la automatización de comportamientos inteligentes como son los de razonar, recabar información, planificar, aprender, comunicar, manipular e incluso crear, soñar y percibir.
La I.A. produce tres efectos muy importantes, que generan grandes ventajas y también enormes riesgos:
- Emula a la inteligencia humana
- Sustituye a la inteligencia humana
- Anula a las actividades y funciones realizadas por humanos que son asumidas por la robótica.
La inteligencia artificial es un concepto muy amplio que engloba muchas sub áreas como la informática cognitiva, el aprendizaje automático, la inteligencia aumentada y la robótica con I.A..
Los sistemas de I.A. están diseñados para operar con diferentes niveles de autonomía y en muchos casos pueden superar a la inteligencia humana.
A veces aparecen conectados directamente a la robótica y en otros se independizan del sustrato material.
2.2.-LA “BIG DATA”.
Los datos son el petróleo del siglo XXI, ya que su aprovechamiento puede lograr una metamorfosis que comienza desde el dato hacia la información, conocimiento y sabiduría; ayuda a los poseedores a de convertir contextos y significados en valor, comprensiones, conocimientos y previsiones.
La Big data es un conjunto de datos de gran volumen, alta velocidad y alta variedad de información, que crece todo el tiempo en forma exponencial, generados a través de las redes y derivados del uso de dispositivos inteligentes, que demandan nuevas formas de procesamiento y que inciden en la toma de decisiones y en la optimización de los procesos.
Los datos exigen ser grabados y, por lo tanto, algún medio material de algún tipo. Como entidad grabada, cada dato requiere sensores para ser capturado y enormes sistemas de almacenamiento para su mantenimiento. También necesita ser analizado, por lo que la recopilación de datos depende de una vasta infraestructura para detectar, grabar y analizar datos.
La captura a veces es aceptada por los usuarios -en una cesión a cambio de confort tecnológico pero en base a condiciones que nunca se leen y afectan al consentimiento del consumidor-, pero la mayoría de las veces es realizada sin la conformidad ni conocimiento de los usuarios y luego traficada.
La Big Data encuentra su principal función en el delineamiento de patrones y tendencias que permiten detectar preferencias de los usuarios.
Los principales reparos contra la Big Data se vinculan a la pérdida del derecho a la privacidad y a la captación y tráfico no autorizado de datos en violación de las leyes respectivas, en particular de la ley de datos personales (ley 25.326 y el “habeas data” del art. 43 de la Constitución Nacional).
Por sobre ello, y tal como quedó demostrado con el “escándalo de Cambridge Analytica-Facebook”, el mayor riesgo es que al extraer de las redes y procesar miles de nuestros datos, construyen un perfil sobre los mecanismos mentales de cada uno lo que les da la posibilidad de influir sobre nuestros pensamientos y sobre nuestras decisiones de modo de poder disciplinar nuestra conducta y/o de inducirnos a comprar ciertos productos y/o a votar ciertos candidatos.
2.3.-EL PROCESAMIENTO DE LA BIG DATA. LOS “ALGORITMOS”.
En las operaciones realizadas respecto de la big-data se encuentra lo esencial de la inteligencia artificial; tarea que puede ser elementalmente explicada en tres fases básicas:
- agregación o conformación de la base (textos, imágenes videos, sonidos);
- análisis: se refiere a conjuntos de datos agregados que se procesan mediante análisis cuantitativo usando I.A., aprendizaje automático, redes neuronales, robótica y computación algorítmica en tiempo real.
iii. El valor agregado que constituye el predictivo, es decir, el resultado de aquel procesamiento de datos, que no es más que el establecimiento de una regularidad; el sistema, sobre la base de los datos y del análisis que sobre ellos corre, pretende detectar el “paso siguiente”; así desde predecir aquello que le interesa al consumidor que ingresa a una página web, hasta la máquina aspiradora de pisos inteligente que se encuentra con un tope y entiende que es una pared y debe dar la vuelta, la inteligencia artificial determina predicciones que se traducen en acciones, basadas en datos acumulados.
En la fase de análisis aparece el protagonista estelar de la I.A. que es el “algoritmo” —que consiste en la resolución de un problema matemático—, pero que para el caso de la I.A. se trata de un diseño matemático destinado a descubrir patrones, regularidades, en aquellos datos que conforman la base de datos del sistema de I.A. sobre el que funcionan.
2.4.-CLASES DE INTELIGENCIA ARTIFICIAL.
A.-“I.A.” DEBIL O DE OBJETIVOS CONCRETOS.
Se trata de un caso de I.A. simbólica que se inspira en la lógica matemática, denominada como I.A. débil, que efectúa una tarea simple.
Son sistemas de I.A. enfocados o con objetivos concretos (se toma, por caso, sistemas de asistencia a la cirugía, más específico aún, a cirugías oculares, o más todavía, a cirugía de cataratas); se diseñan entonces bases de datos con las posibles ocurrencias y vicisitudes que pueden darse en estos casos y se entrena al sistema para predecir la mejor opción posible, en cuanto al curso de acción a seguir para aquella vicisitud; frente a ello el sistema puede actuar en forma autónoma, o bien puede aconsejar al médico que opera el sistema y dejar la decisión en sus manos.
Un ejemplo es el caso de la máquina “Deep Blue”, jugando ajedrez contra Kasparov pero que no puede manejar un auto.
B.”I.A.” FUERTE. EL ”MACHINE LEARNING” (“ML”)
Se trata de una I.A. no simbólica inspirada en el funcionamiento del sistema nervioso y el aprendizaje de los organismos vivos y se representa en las redes neuronales.
La máquina crea, aprende, corrige y etiqueta en forma autónoma, con independencia de su programación, a partir de la información y datos que recibe o colecta del medio en el cual actúa.
Son algoritmos que analizan datos históricos para detector automáticamente patrones, realizar predicciones de las que aprende y se va corrigiendo a sí misma, volviéndose cada vez más precisa. Cada vez que esto sucede se dice que el algoritmo está entrenado.
El aprendizaje puede ser supervisado por humanos o tratarse de un “Deep Learning” (DL.), no supervisado por humanos, por el cuál las computadoras aprenden, reconociendo patrones, mediante el uso de muchas capas distintas de procesamiento, por lo que se las conoce como “redes neuronales artificiales” y son modelos computacionales que se inspiran en el comportamiento de las neuronas y las conexiones cerebrales.
De los varios tipos de I.A. se destacan dos sistemas: a) los que piensan como humanos y b) los que actúan como humanos, realizando tareas similares a éstos.
2.5-LOS CHATBOTS
2.5.1.-CONCEPTOS Y CLASES.
Son programas informáticos con los que una persona puede mantener una conversación. No tienen un cuerpo robótico.
Al respecto, se ha destacado la existencia de dos tipos de chatbots:
-los dumb chatbots, que son en realidad interfaces conversacionales que cuentan con menúes de opciones preconfiguradas.
-los clever chatbots, que recurren a la I.A. y, a través del método del machine learning, comprenden el lenguaje natural y “aprenden” con cada interacción, enriqueciendo sus bases de datos e incorporando nuevas opciones y/o soluciones ante los inconvenientes que el consumidor le plantee, permitiendo un mayor desarrollo y crecimiento del servicio.
2.5.2.-EL CHAT “GPT”.
En los últimos años se puso a disposición del público el chat “GPT”, cuyo nombre viene del inglés (Generative Pre-trained Transformer) y era la tercera generación de los modelos de predicción de lenguaje creados por OpenAI, un laboratorio de investigación de inteligencia artificial con sede en San Francisco cuyo principal inversor es Microsoft. El modelo GPT 3 fue presentado al público en 2020 mediante una publicación con co-autoría de la Universidad John Hopkins.
Se trataba de una especie de inteligencia artificial aplicada al lenguaje que tiene una capacidad de 175.000 millones de parámetros de aprendizaje automatizado. Forma parte de una tendencia en sistemas de procesamiento de lenguaje natural (PLN) basados en «representaciones de lenguaje pre-entrenadas». El PLN tiene la generación del lenguaje natural (lenguaje humano) como uno de sus componentes principales.
El GPT, en sus sucesivas versiones, es un modelo de lenguaje auto regresivo que emplea aprendizaje profundo para diversas tareas relativas a la comprensión y generación de lenguaje. Es “generativo” porque genera secuencias largas de texto original, y es “entrenado” porque no se ha creado con ningún conocimiento de dominio previo.
A toda inteligencia artificial se la entrena a base de texto, se le hacen preguntas y se le añade información, de manera que este sistema, a base de correcciones a lo largo del tiempo, va “entrenándose” para realizar de forma automática la tarea para la que ha sido diseñada. En el caso de Chat GPT, esta I.A. ha sido entrenada para mantener conversaciones con cualquier persona y sus algoritmos son capaces de entender lo que le esté preguntando con precisión, incluyendo adjetivos y variaciones que se agreguen a las frases, y de responder de una manera coherente.
Lo fundamental es que produce textos, expresados de manera natural, en forma humana y empática, y con información exacta, que no pueden distinguirse de textos escritos por humanos, lo que implica que supera al famoso “test de Türing” porque no permite distinguir si se conversa con un humano o con una máquina.
De todos modos el sistema no “piensa” sino que selecciona y repite lo que tiene en sus datos.
II.-LOS RIESGOS Y LAS REGULACIONES.
1.-RIESGOS Y REGULACIONES SOBRE ROBÓTICA.
1.1.-LOS RIESGOS DE LA INTERACCION CON ROBOTS
Debe partirse del hecho de que los humanos fácilmente le atribuimos propiedades mentales a objetos animados y empatizamos con ellos, máxime cuando tienen apariencia de seres vivos.
Desde allí aparecen precauciones ineludibles, pensar en robot de compañía, sea para asistir a personas ancianas; o bien a ciertas compañías con cierta capacidad de interactuar, que reemplacen no solo el rol del humano, sino también el de las mascotas.
Todo esto requiere evitar que el dispositivo genere emociones que hagan perder de vista su rol y dimensión de modo de evitar dañar psicológicamente al usuario; de otro lado, que tal apariencia y lazo emocional que pueda presentar el robot no sea un vehículo del manejo de la conducta del usuario, por ejemplo, hacia sus preferencias de consumo, de inversión o de otra índole. En definitiva, el riesgo de manipulación del usuario a través de la exacerbación de su emocionalidad
1.2.-NORMATIVAS PROPUESTAS.
Asimov, en su cuento de 1942 “Runaround”, propuso las tres leyes de la robótica:
1-Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
2.-Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
3.-Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.
Posteriormente propuso la ley “0”. Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.
Modernamente, la Comisión de Asuntos Jurídicos del Parlamento Europeo ha aprobado un informe, presentado el 21 de abril de 2021, cuyo objetivo es regular la inteligencia artificial, crear un registro de robots e impulsar una agencia dedicada a este asunto.
La propuesta solicita a la Comisión Europea la creación de un estatuto jurídico específico para la I.A. y para los robots de automatización de tareas, la creación de un fondo general para todos los autónomos inteligentes o bien crear un fondo individual para cada definición y clasificación de los «robots inteligentes»
Así pues, debe establecerse una definición europea común de robots autónomos «inteligentes», cuando proceda, incluidas las definiciones de sus subcategorías, teniendo en cuenta las siguientes características:
— la capacidad de adquirir autonomía mediante sensores y/o mediante el intercambio de datos con su entorno (interconectividad) y el análisis de dichos datos;
— la capacidad de aprender a través de la experiencia y la interacción;
— la forma del soporte físico del robot;
— la capacidad de adaptar su comportamiento y acciones al entorno.
En cuanto a los daños producidos por robots que funcionan con inteligencia artificial, se propone la articulación de la responsabilidad como una especie de corresponsabilidad, o responsabilidad “compartida” o “distribuida” entre los diseñadores de robots, ingenieros, programadores, fabricantes, inversores, vendedores y usuarios.
Sin embargo compartimos con de Diego que hace falta crear un régimen especial que señale un responsable principal ya que si todos tenemos una parte en la responsabilidad total, nadie es completamente responsable y las acciones legales nunca llegarían a concluir.
También se propone un sistema de seguros para cubrir los daños producidos por los robots.
2.-RIESGOS Y REGULACIONES SOBRE CHATS E INTELIGENCIA ARTIFICIAL.
2.1.-RIESGOS DEL CHAT GPT
En general, el Chat GPT presenta los problemas de los sesgos ya que si el algoritmo aprende de aquello que lee y, por tanto, si se lo entrena a partir de textos de internet, pueden colarse sesgos de género, racismo, edadismo, etc.
Por otra parte, existe un reclamo desde los derechos de propiedad intelectual ya que el chat toma y reproduce toda la información de la web que incluye trabajos protegidos.
También puede dar lugar a fraudes de autoría por parte de alumnos, escritores o periodistas. De hecho ya se han creado aplicaciones para permitir a los profesores detectar cuando un texto fue escrito por la I.A. en base a su modo de funcionamiento y a los patrones que utiliza.
Debido a que GPT puede “generar artículos de noticias que los evaluadores humanos tienen dificultades para distinguir de los artículos escritos por humanos”, GPT tiene el “potencial de avanzar tanto en las aplicaciones beneficiosas como perjudiciales de los modelos de lenguaje”. Al respecto, los investigadores describen en detalle los posibles “efectos perjudiciales de GPT”, que incluyen “desinformación, spam, phishing, abuso de procesos legales y gubernamentales, redacción fraudulenta de ensayos académicos y pretextos de ingeniería social”.
A ello se suma el peligro de las “alucinaciones” en la I.A. generativa que se trata de situaciones en las cuales los sistemas de inteligencia artificial generan información o resultados que no están respaldados por datos reales o fidedignos, lo que puede tener graves consecuencias, sobre todo en el ámbito legal.
Finalmente, un artículo en el MIT Technology Review declaró que GPT carece de “comprensión del mundo” por lo que realmente “no se puede confiar en lo que dice”, refiriéndose a que modelos como los de GPT solo analizan la relación entre palabras (sintaxis) sin un análisis del significado de las palabras (semántica).
Frente a todo ello, una de las medidas que se proponen es hacer obligatorias las auditorías algorítmicas y las evaluaciones de impacto sobre este tipo de chats, lo que permitiría el conocimiento de los usuarios y la aplicación de las medidas regulatorias correspondientes.
También se sostiene la necesidad de un uso responsable de la inteligencia artificial generativa, especialmente de los agentes conversacionales, en particular en las instrucciones o promts
2.2.-Un pedido de suspensión.
El Instituto Futuro de la Vida publicó el 23 de marzo de 2023 una carta abierta en que pidió una pausa en el desarrollo de sistemas avanzados de inteligencia artificial (IA). En 10 días, casi 1800 personas firmaron la carta, incluidos Yuval Noah Harari, Elon Musk, Stuart Jonathan Russell y Steve Wozniak.
Los autores constatan una “carrera desbocada para desarrollar e implementar sistemas de I.A. cada vez más poderosos que nadie puede entender, predecir o controlar de manera confiable”. Ven en ello profundos riesgos para la sociedad y la humanidad. Existe el peligro de que los canales de información se inunden con propaganda y falsedades, y los trabajos satisfactorios se racionalicen. Preguntan: “¿Nos arriesgaremos a perder el control de nuestra civilización?”
2.3.-RIESGOS DE LA INTELIGENCIA ARTIFICIAL
i.-Los algoritmos de caja negra
La “explicabilidad” de un sistema de I.A. consiste en su capacidad de exteriorizar —o explicar— qué información y que lógica utilizó para arribar a una decisión determinada, de una forma entendible para un ser humano.
La tecnología de Deep Learning utiliza Redes Neuronales Artificiales compuestas por una gran cantidad de unidades de procesamiento simple (neuronas) interconectadas entre sí y organizadas en múltiples capas (input, capas ocultas y output). En el proceso de entrenamiento, se va modificando en forma automática la relevancia de las distintas conexiones que unen a las neuronas, de manera de reducir al máximo en error en sus predicciones. De tal forma, cuando comienza a operar, es muy difícil —si no imposible—, determinar la forma en que arriba a una conclusión determinada. El sistema ya entrenado, se convierte en un algoritmo distinto al que diseñaron sus creadores al inicio: es muy difícil conocer lo que sucede en sus capas ocultas de neuronas y qué elementos relevantes de los datos que le presentan toma en cuenta para arribar a una decisión. Por eso se los denomina algoritmos de caja negra: uno sabe lo que ingresa a la caja (capa de input) y lo que sale de ella (capa de output), pero ignora lo que ocurre en su interior (capas ocultas).
Si bien las RNA permiten alcanzar un gran nivel de precisión y constituyen hoy la tecnología más poderosa, la imposibilidad de explicarse —para que podamos conocer la forma en que deciden— condiciona negativamente su uso en áreas críticas para los derechos de las personas.
Los especialistas señalan que es necesario un alto grado de explicabilidad en las siguientes áreas:
— Asuntos judiciales y de la administración pública.
— Diagnóstico médico y cuidado de la salud.
— Servicios financieros y de seguros.
— Vehículos autónomos.
— Sistemas bélicos.
En las áreas judicial y administrativa, donde se definen derechos sustanciales de las personas y no se requieren sistemas de alta performance, resulta aconsejable utilizar técnicas de ML menos complejas y que utilizan menos datos (Small Data), y son capaces de explicar su proceso lógico (v.gr., árboles de decisión).
ii.-Otros riesgos.
También los algoritmos pueden utilizarse para manipular y dirigir nuestro comportamiento sin que ni siquiera seamos conscientes de lo que está pasando.
Ante los riesgos de su potenciación, mal uso, sesgos, invasión de la privacidad, manipulación intelectual y pérdida del control humano sobre la I.A. han ido apareciendo en los últimos tiempos algunas propuestas regulatorias, reglas éticas y principios de comportamiento, como así algunas normas específicas que se señalan a continuación.
A ello se suma que para algunas opiniones, que compartimos, la inteligencia artificial no es una técnica computacional neutral sino que implica sistemas integrados en mundos sociales, políticos, culturales y económicos, delineados por humanos o instituciones con imperativos que determinan lo que hacen y lo que no hacen en beneficio de los Estados, instituciones y corporaciones a las que sirven.
2.4.-PROPUESTAS EN LA O.N.U.
En 2021, encomendado por sus 193 Estados Miembros, la UNESCO aprobó el primer instrumento normativo mundial en forma de “Recomendación sobre la Ética de la inteligencia artificial”.
Este documento establece un estándar global para la inteligencia artificial, que se basa en valores y principios éticos para ser aplicados en todo el ciclo de vida de la I.A..
Además, ofrece orientación detallada sobre cómo aplicarlos en una amplia gama de áreas que están siendo impactadas por la I.A., como la gobernanza de datos, el medio ambiente, la igualdad de género, la economía y el trabajo, la cultura, la educación y la investigación.
La Recomendación también establece mecanismos de seguimiento y evaluación para asegurar el impacto de las acciones que se tomen y que ya están siendo trabajadas por la UNESCO, en conjunto con 40 países en todo el mundo.
Por su lado, el Órgano Asesor de Inteligencia Artificial (OAIA), de la ONU, publicó un informe en el año 2023 en el que analiza los beneficios de la I.A. y también sus múltiples riesgos y desafíos proponiendo algunos “principios rectores” como son los siguientes: 1.-Inclusión y beneficio de todos; 2.-interés público; 3.-sintonía con la gobernanza de datos; 4.-universal y en red; y 5.-anclada en las normas de las Naciones Unidas. Además, señala siete funciones institucionales críticas para la gobernanza de la I.A. vinculadas a la evaluación, interoperabilidad, armonización de estándares, cooperación y facilitación, colaboración, monitoreo de riesgos y rendiciones de cuentas
2.5.-ORDEN EJECUTIVA DEL GOBIERNO DE USA.
En materia regulatoria debe destacarse la Orden Ejecutiva del presidente Biden del 30 de octubre de 2023 fijando la posición y la visión del Gobierno Federal de EEUU para el “desarrollo y uso seguro y confiable de la Inteligencia Artificial.
También se sostiene la necesidad de una “Carta de Derechos de la Inteligencia Artificial”, tomando como base los cinco principios elaborados por la Oficina de Políticas, Ciencia y Tecnología de la Casa Blanca (USA) que, en simetría con la “Bill of rights” del Reino Unido, que buscaban limitar las potestades de los gobernantes, ahora serían los gobernantes los que deberían limitar el potencial dañinode la amplitud de la inteligencia artificial.
2.6.-REGULACIONES DE LA UNIÓN EUROPEA.
La Unión Europea tiene diversas regulaciones y propuestas entre las que se destacan las siguientes:
i.-Proveedores de I.A.
El Reglamento de Inteligencia Artificial de la Unión Europea fue aprobado por el Parlamento Europeo el 20 de Abril de 2024 y tiene un cronograma para la entrada en vigencia de sus diversas regulaciones de entre 6 y 36 meses.
Sus puntos puntos más importantes son:
- Ámbito de aplicación: El reglamento se aplica a proveedores y usuarios de sistemas de I.A. en la Unión Europea, independientemente de si la organización está ubicada dentro o fuera de la UE, siempre que los servicios o productos se ofrezcan en la UE o se utilicen para afectar a las personas en la UE.
- Prohibiciones específicas: Se prohíbe el uso de sistemas de I.A. que pongan en peligro los derechos fundamentales, como la manipulación del comportamiento humano, la vigilancia masiva, la puntuación social y el uso de sistemas de I.A. para fines discriminatorios.
- Categorías de riesgo: Se establecen tres categorías de riesgo para los sistemas de I.A.: alto riesgo, riesgo limitado y riesgo mínimo. Los sistemas de I.A. considerados de alto riesgo están sujetos a requisitos más estrictos, como evaluaciones de riesgos, registros, documentación técnica y supervisión humana. Asimismo, se prohíben diversos sistemas de inteligencia artificial como los de categorización biométrica en base a características “sensibles”; los de vigilancia biométrica por captación de imágenes faciales, captación de emociones en lugares de trabajo, sistemas de puntuación del comportamiento social, manipulación de hábitos, explotación de la vulnerabilidad, etc.
- Requisitos de transparencia: Los proveedores de sistemas de I.A. deben proporcionar información clara y comprensible sobre el funcionamiento y los resultados esperados de sus sistemas, incluida la divulgación de cualquier uso de inteligencia artificial para interactuar con los usuarios.
- Evaluación de riesgos y supervisión: Se requiere que los sistemas de I.A. de alto riesgo sean sometidos a evaluaciones de riesgos exhaustivas antes de su despliegue y estén sujetos a una supervisión continua para garantizar el cumplimiento de los requisitos legales.
- Datos y calidad de los datos: Se enfatiza la importancia de utilizar datos de alta calidad y éticos en el desarrollo y entrenamiento de sistemas de I.A., así como la necesidad de documentar y garantizar la trazabilidad de los conjuntos de datos utilizados.
- Responsabilidades: Se establecen responsabilidades claras para los proveedores de sistemas de I.A., así como para los usuarios y autoridades supervisoras. Se prevén multas por incumplimientos.
Se crea en la Comisión una “Oficina Europea de Inteligencia Artificial”, dependiente de la Dirección General de Redes de Comunicación, Contenidos y Tecnología, para apoyar la aplicación de la Ley de Inteligencia Artificial, especialmente para la I.A. de propósito general y se prevé la elaboración de Códigos de Buenas Prácticas dentro de los 9 meses.
ii.-Responsabilidad extracontractual.
En forma paralela, la Unión Europea también está trabajando en una Propuesta de Directiva de responsabilidad extracontractual por uso de I.A. que está compuesta por 8 Artículos, y pretende armonizar el derecho nacional de los 27 para que permitan reclamar una indemnización basada en la culpa consistente en el incumplimiento de un deber de diligencia impuesto por el Derecho de la Unión o el derecho nacional.
La Directiva asume que puede resultar difícil para los demandantes ́probar que existe un nexo causal entre dicho incumplimiento y la información de salida producida por el sistema de I.A. o la no producción de una información de salida por parte del sistema de I.A. que haya dado lugar a los daños en cuestión. En su Art. 4 se crea una presunción relativa de causalidad específica en relación con este nexo causal, bajo la creencia que esta presunción es la medida menos gravosa para dar respuesta a la necesidad de una indemnización justa para la víctima. El actor debe demostrar la culpa del demandado con arreglo a las normas nacionales o de la Unión que sean aplicables. Esta culpa puede determinarse por incumplir un deber de diligencia en virtud del Reglamento de I.A., o de otras normas comunitarias, como las que regulan el uso de la supervisión y la toma de decisiones automatizadas para el trabajo en plataformas, o las que regulan el funcionamiento de aeronaves no tripuladas.
iii.-Daños por productos defectuosos.
En 2022 se impulsó una propuesta de una nueva Directiva sobre responsabilidad por daños causados por productos defectuosos, que incluye el software y todos los demás sistemas de I.A., actualizando el régimen creado en 1985 con la Directiva 85/374/CEE1 sobre responsabilidad por daños causados por productos defectuosos
Esta propuesta de Directiva actualizará normativa vigente desde 1985, introduciendo el software y sistemas de I.A. dentro de la definición de “producto”. Se sostiene que cuando los sistemas de I.A. son calificados como productos, si actúan de una forma defectuosa y generan un daño, los dañados deberán ser resarcidos por el fabricante responsable. Los sujetos dañados no necesitan demostrar la culpa del fabricante, sino que sólo necesitan demostrar el defecto de un producto. Y no solo se consideran responsables por sus productos defectuosos los fabricantes de equipos informáticos, sino también los proveedores de programas informáticos y servicios digitales.
iv.-Principios éticos.
Finalmente, debe mencionarse la Propuesta de Reglamento Europeo y del Consejo sobre los principios éticos para el desarrollo y despliegue y el uso de la inteligencia artificial, la robótica y las tecnologías conexas del 20 de octubre de 2020, que impone el respeto de la dignidad, la autonomía y la seguridad humanas, el fomento de proyectos de investigación de I.A. que impliquen la promoción de la inclusión social, la democracia, la pluralidad, la solidaridad, la equidad, la igualdad y la cooperación; la supervisión humana y el control humano con desactivación de las tecnologías de alto riesgo, y la salvaguarda de la seguridad que incluya un plan alternativo y medidas en caso de riesgo, entre otras disposiciones.
2.7.-RECOMENDACIONES Y PROYECTO EN ARGENTINA.
La Subsecretaría de Tecnologías de la Información, dependiente de la Secretaría de Innovación Pública, publicó la Disposición 2/2023, mediante la cual se aprobaron las “Recomendaciones para una Inteligencia Artificial Fiable”. Esta medida tiene como objetivo establecer reglas claras para garantizar que los beneficios de los avances tecnológicos sean aprovechados por todos los sectores de la sociedad, fortaleciendo el ecosistema científico y tecnológico argentino.
Además, existe un proyecto de ley 2024 del diputado Juan Fernando Brügge,
III.-EL DERECHO COMERCIAL FRENTE A LA INTELIGENCIA ARTIFICIAL
1.-LA INTELIGENCIA ARTIFICIAL COMO NUEVO SUJETO MERCANTIL.
1.1.-LOS SUJETOS MERCANTILES.
En sus comienzos el derecho comercial giraba en torno a la figura del comerciante, luego, a efectos de aplicarse a los no comerciantes, se fue independizando del mismo para atender al “acto de comercio” y, posteriormente, tuvo como eje a la actuación empresarial en el mercado.
En los últimos años, y a partir de la vigencia del Código Civil y Comercial, el eje se fue desplazado desde la actuación bajo forma de empresa hacia la persona jurídica titular de la misma; la sociedad comercial y, dentro del individualismo posmoderno y conforme a la tendencia neoliberal predominante, a partir de la ley 27.345 hacia el socio emprendedor y hacia la sociedad unipersonal.
Dicho emprendedor, hasta ahora, es una persona humana y toda sociedad comercial debe tener socios que, en última instancia, sean personas humanas.
Sin embargo, la aparición de la inteligencia artificial parecería conducir hacia la configuración de un nuevo sujeto mercantil: la inteligencia artificial dotada de “personificación electrónica”.
1.2.-LA PERSONALIDAD ELECTRÓNICA Y SUS DEBATES.
El art. 59, inc.f de la Resolución del Parlamento Europeo del 16 de febrero de 2017, sobre recomendaciones destinadas a la Comisión en materia e normas de Derecho civil sobre robótica (2015/2103 –INL-) propuso “crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente”.
El disparador consiste en la necesidad de dilucidar y reglamentar de manera específica quien va a ser el sujeto responsable en los supuestos daños ocasionados por la inteligencia artificial, ante la imprevisibilidad del comportamiento de los sistemas dotados de autonomía tecnológica y que presentan un aprendizaje automático o aquellos que toman decisiones en base a estructuras de redes neuronales artificiales.
Es que cuanto mayor sea la capacidad de aprendizaje y autonomía del robot, menor será la responsabilidad de las otras partes y cuanto más larga haya sido la educación del robot, mayor será la responsabilidad de su profesor.
La señalada propuesta del Parlamento Europeo ha generado muchos rechazos y un amplio debate entre los especialistas sobre la situación legal que corresponde atribuir a un robot inteligente, autónomo o semiautónomo, cuando existe pérdida material de dirección y control humano sobre el sistema y sus acciones.
Básicamente las posiciones son dos: a) mantener la actual situación de la “i.a.” autónoma como una “cosa” o b) conferirle personalidad jurídica.
En la primera postura, como “cosa”, “producto” o “actividad riesgosa”, deberían mantenerse las reglas de la responsabilidad civil aunque con algunas modificaciones. Asimismo se sostiene que la personalidad jurídica requiere de un dato pre normativo y solo puede ser predicada como atributo de un “ente activo” y en el caso se trataría de un “ente pasivo” inapto para el obrar humano
Dentro de esta postura existe un debate respecto de si es una responsabilidad subjetiva u objetiva y sobre la aplicación del art. 40 de la ley 24240 cuando la víctima sea un consumidor.
También se sostiene la necesidad de dictar normas complementarias específicas como un seguro obligatorio, un fondo de compensación, aplicación de daños punitivos y registros de robots.
En la postura b) se propone reconocer una subjetividad jurídica confiriendo personalidad electrónica al robot inteligente, complementándola con un sistema de seguro y un fondo compensador.
Se sostiene que no hay impedimento formal para conferirles personalidad jurídica e incluirlas en el art. 141 del código civil y comercial, tratándose de una cuestión de mera política legislativa.
Entre sus fundamentos se destaca que cada vez se vuelve más complejo determinar si la actividad ilícita o dañosa de producto del programa originario del robot, del aprendizaje de éste, del manejo que de aquél se haga, o si es independiente del uso dispensado, lo que impide determinar la trazabilidad del daño.
Se sostiene, además, que tal incertidumbre llevaría a que se desincentiven las inversiones en este tipo de desarrollos.
1.3.-ATRIBUTOS DE LA PERSONALIDAD ELECTRÓNICA.
La postura de la personificación lleva a cuestiones patrimoniales, penales y psicológicas.
En lo patrimonial, se sostiene que la I.A. podría responder con el producido de la propiedad intelectual de las creaciones de que es capaz.
En lo penal se plantea, en los accidentes de los automóviles autónomos, cuando fue culpa de la propia I.A. o del conductor.
Sin perjuicio de ello, quedaría todavía como inquietud compatibilizar el carácter artificial del sujeto con los aspectos vinculados a la “consciencia”. Y en este campo se abre como incógnita la posibilidad de definir si esa “consciencia” es asimilable a la atribuible a las personas humanas o si debemos construir una idea de “consciencia tecnológica” o “conciencia artificial”.
1.4.-EL REGISTRO DE INTELIGENCIA ARTIFICIAL.
La postura de la personificación es criticada sosteniéndose que la personalidad electrónica brindaría un beneficio que no necesitan las empresas de la industria, que se estaría trasladando el riesgo al consumidor o ciudadano común, o que no puede personificarse ya que toda persona jurídica requiere, en última instancia, una persona humana.
Otra posibilidad, más acotada, postula la inscripción de cada inteligencia artificial en un Registro de Inteligencia Artificial correspondiente a su país, donde se le asignará:
- a) un nombre que lo identifique;
- b) un representante humano o jurídico que sea reconocido como su creador;
- c) se informe de forma detalla y pormenorizada la capacidad objeto de ese robot
con inteligencia artificial.
- d) un domicilio especial que sirva de domicilio para las notificaciones legales.
También se sostiene que es muy importante que se efectúen directrices globales en los organismos internacionales para que establezcan los principios y estándares que deben valorar los Registros de Inteligencia Artificial.
1.5.-¿LA “I.A.” COMO SUJETO MERCANTIL ELECTRÓNICO?.
La postulación de dotar de una personalidad jurídica totalmente independiente a una I.A. que pueda tomar decisiones autónomas inteligentes y que pueda interactuar con terceros, habilitándola como centro de imputación diferenciada para hacer todo tipo de negocios, con patrimonio propio, implicaría crear un nuevo sujeto comercial empresario.
Tal situación debe ser absolutamente rechazada ya que implicaría crear un sujeto de enorme poder de mercado, sin finalidad humana y sin control humano, lo que resultaría absolutamente peligroso para los co-contratantes, los consumidores y para la misma humanidad ya que podría implicar su fin o la subordinación del mundo humano a un mundo tecnológico autónomo.
Distinto sería el caso de si la personificación se limitara a la creación de un centro de imputación diferenciado para atribuir los daños causados por la I.A., previa la debida identificación de sus características concretas y de las personas humanas o jurídicas que se sirven de ella, bajo una adecuada registración, y que serían las responsables finales de tales daños.
Tal medida sería acertada por brindar seguridad jurídica de los terceros.
2.-LA “I.A.” EN LOS DIRECTORIOS DE LAS SOCIEDADES.
2.1.-LA TOMA DE DECISIONES EN LAS EMPRESAS Y LA RESPONSABILIDAD DE LOS DIRECTORES.
La toma de decisiones en general, y en particular en una empresa, está sujeta a ciertas reglas que la ciencia de la administración ha ido elaborando, las que requieren cumplir los siguientes pasos: 1.-La determinación precisa del problema; 2.-La recopilación de toda la información necesaria; 3.-La formulación de las posibles alternativas; y 4.-La evaluación de las alternativas y elección de la mejor.
En este proceso es fundamental contar con la mayor información posible y con las opiniones de asesores y especialistas cuando es necesario.
En las sociedades anónimas, las decisiones empresarias son tomadas por los directores, a quienes se los somete a un régimen colegial de decisiones, a determinadas incompatibilidades, se les exige la lealtad y la diligencia de un buen hombre de negocios y están sujetos a un régimen agravado de responsabilidad frente a la sociedad, frente a los socios y frente a los terceros, en particular en el momento de la insolvencia empresaria. Normas similares se aplican a otros tipos societarios (ver arts. 159 y 160 del código civil y comercial y arts. 59, 274 y conc. de la ley 19.550).
2.2.-UTILIZACIÓN DE INTELIGENCIA ARTIFICIAL.
Existen en algunos países sociedades donde el algoritmo de la I.A., integra el directorio como miembro del Consejo Directivo, o como director ejecutivo, y parte de la doctrina lo postula.
Se plantea también la posibilidad de que sea usado como soporte de consulta o que integre un directorio híbrido junto con seres humanos.
Tal es el caso, por ejemplo, de la empresa Deep Knowledges Ventures, de Hong Kong, que en 2014 incorporó un algoritmo a su directorio llamado Vital que realiza recomendaciones sobre situaciones financieras, pruebas clínicas y propiedad intelectual sobre posibles empresas para invertir y tiene un voto entre cinco directores.
Alguna doctrina propone la gestión y decisiones de directorio y sindicatura utilizando el blockchain y la “I.A.”, la designación de directores robots y el análisis de las consecuentes responsabilidades.
En Argentina sería legalmente imposible por la necesidad de que se trate de un “sujeto de derecho”, pero no obstante alguien plantea la duda respecto de las sociedades simples donde la libertad contractual podría acoger un directorio robot manejado por inteligencia artificial.
Por nuestra parte rechazamos absolutamente la idea de que un director pueda ser una I.A. por peligrosa y deshumanizante.
Si bien consideramos que la “I.A.” puede y debe ser un elemento muy importante a ponderar a la hora de construir las “decisiones informadas” del directorio o de la sindicatura, entendemos que nunca debería dejar de ser un accesorio de la definitiva y vinculante decisión humana.
3.-FABRICAS INTELIGENTES Y DESPLAZAMIENTO DE TRABAJADORES.
3.1.-LAS “FÁBRICAS INTELIGENTES”.
Un derivado conjunto de las tecnologías emergentes es la “fábrica inteligente”, que puede definirse como una red interconectada de máquinas, mecanismos de comunicación y potencia informática que pueden utilizar al mismo tiempo las siguientes tecnologías: Conectividad en la nube; Inteligencia artificial; Machine learning; Big Data; Internet de las cosas industrial (IIoT); Gemelos digitales; Impresión 3D; Realidad virtual (VR), Realidad aumentada (AR); Blockchain; Smart contracts, y una base de datos moderna.
Es así que una fábrica digital inteligente funciona integrando máquinas, personas y Big Data en un único ecosistema conectado digitalmente.
Interpreta y obtiene información estratégica de data sets para pronosticar tendencias y eventos, y para recomendar e implementar flujos de trabajo de fabricación inteligentes y procesos automatizados.
Una fábrica inteligente experimenta una mejora procesal continua para autocorregirse y optimizarse automáticamente; puede enseñarse a sí misma (y a los humanos) a ser más resilentes, productivos y seguros.
Se utilizan chips RFID para monitorear y dirigir todas las materias primas y mercaderías.
3.2.-IMPACTOS DE LA ROBÓTICA SOBRE LOS TRABAJADORES.
En las fábricas inteligentes de Audi, Siemens, Seat y General Electric, se sostiene que a los obreros cesantes se los capacita e incorpora como parte del equipo de programadores y supervisores, pero lo cierto es que la tecnología destruye empleos y las fábricas inteligentes destruyen los empleos de los obreros.
Esto produce un doble efecto dañoso.
En primer lugar, sobre los propios ingresos de los trabajadores despedidos o no contratados, que quedan sin medios de subsistencia.
En segundo término, sobre las finanzas del Estado y por partida doble: deja de cobrar las contribuciones de los trabajadores como aportantes al sistema de seguridad social y, al mismo tiempo, debe atenderlos mediante planes sociales o por vía de la asignación universal
Frente a ello, va ganando terreno la tendencia a exigir que los robots, o sus titulares, paguen impuestos para compensar tales menores ingresos fiscales.
En el punto, algunas posturas proponen gravar directamente al dueño de la fábrica y otras entienden posible, frente a una personificación del robot inteligente y autónomo (ver supra, cap.III, 1.2.), que pueda considerarse directamente al robot como un obligado tributario de manera equivalente a una herencia yacente.
Por nuestra parte consideramos indispensable que el reemplazo humano por robots en todos los empleos sea compensado con los impuestos correspondientes al ahorro empresarial que ingrese a un fondo a atender el desempleo.
4.-EL CRÉDITO: LAS CALIFICADORAS DE RIESGO Y LA I.A.
Las agencias de calificación crediticia (ACRs) juegan un papel fundamental en los mercados financieros al utilizar experiencia técnica para reducir la asimetría de información que existe en dichos mercados financieros.
Ello es valioso tanto para el inversor como para el emisor al proteger al primero de los riesgos crediticios y permitir al segundo, una vez calificado, acceder al crédito.
En todos los casos se trata de opiniones no vinculantes pero con gran impacto en el mercado.
Luego del triste papel cumplido en la crisis financiera de los años 2007/9, se dictaron regulaciones para hacerlas responsables ante los inversores. En 2009 la Unión Europea emitió el Reglamento 1016/2009 y en 2013 el Reglamento 462/2013. Por su lado en USA se aprobó en 2010 la ley Dodd-Frank de responsabilidad de las calificadoras de riesgo y reforma y protección al consumidor financiero.
En los últimos tiempos las calificadoras de riesgo utilizan inteligencia artificial para aumentar su eficiencia en un proceso de automatización de actividades.
En dicha tarea se presentan cuatro desafíos jurídicos de suma importancia:
- El de los datos utilizados ya que los datos relevantes los debe proporcionar el emisor (deudor), donde estan en juego la privacidad y los datos sensibles, pero también hay captura de datos del mercado por las calificadoras.
- El de la transparencia algorítimica ya que las calificaciones crediticias deben estar suficientemente fundamentadas y revelar todas las consideraciones materiales que formaron parte del proceso de valuación, de modo de permitir a los inversores efectuar su propia evaluación. Este es un tema que plantea problemas frente a las “cajas negras” de los algoritmos y la reticencia a transparentarlos.
- Cómo se controlan por los gobiernos e instituciones los sistemas de I.A. de las calificadoras
- Cuáles son las responsabilidades de la calificadora en casos de informes falsos o incompletos.
En América Latina, si el acceso al crédito de los individuos es una herramienta para promover su desarrollo, entonces la inclusión financiera debe asegurarse cuidando las formas de calificación del riesgo crediticio para personas que nunca estuvieron en el sistema financiero.
En otras palabras, los no-incluidos no deben ser prejuzgados como mal calificados para el acceso al crédito; deben ser calificados criteriosamente.
En Canadá, por ejemplo, uno de los países más abiertos a la inmigración del mundo, un nuevo inmigrante goza por ley de un 65% de crédito hipotecario a tasas de mercado para la compra de su primera vivienda.
De esta manera, una persona no calificada previamente comienza con algo, con una calificación provisoria para atender sus necesidades básicas. La tecnología y la innovación deben ceder en ejemplos como éste y en tantos otros con mayor impacto social, ante la necesidad de inclusión financiera.
En definitiva, resulta necesario en la materia transparentar los sesgos de los algoritmos, para evitar la discriminación y, además, extender la inclusión financiera a nuevos sectores mediante pautas inclusivas y humanistas.
5.-LOS SEGUROS.
5.1.-APLICACIONES.
La industria aseguradora ya está adoptando la I.A. en distintas áreas de la actividad, en forma constante y creciente.
Siguiendo a Martín Zapiola Guerrico pueden señalarse diversas áreas.
En primer lugar, la del análisis de los riesgos y la decisión de cubrirlos por parte de la aseguradora, donde se utilizan dispositivos digitales para la contratación, imágenes que evitan la inspección física, se pueden detectar fraudes por análisis faciales y de voz, y obtenerse datos sobre la conducta del asegurado
También se puede tener acceso a datos externos y a dispositivos móviles de los asegurados y procesar datos escritos por la técnica NLP
En segundo lugar, la I.A. se puede utilizar para la gestión de los siniestros mediante el procesamiento de fotos y de videos y la detección de actitudes mendaces de los asegurados.
Finalmente, la I.A. puede cumplir un rol fundamental en la tarea de prevención de siniestros ya que sus datos pueden permitir la alerta oportuna al cliente sobre un riesgo de inminente concreción.
A dichos ámbitos corresponde sumar una nueva área a cubrir por los seguros como son los daños derivados de la actuación de robots, de automóviles autónomos y de los sistemas de inteligencias artificial según las propuestas analizadas supra.
5.2.-REINTERPRETACION DE LA LEY DE SEGUROS.
Desde la postura de la protección del consumidor de seguros, el profesor Walter Sobrino sostiene que el uso de la inteligencia artificial amplía en forma exponencial la asimetría de información que existe entre las aseguradoras y los asegurados, generando una serie de consecuencias que exigen interpretaciones diversas de las normas de la ley de seguros, máxime considerando que está probado que los aseguradores consumidores contratan basándose en las emociones, tienen determinadas expectativas que deben ser atendidas, y que nunca leen la póliza.
Por ejemplo, respecto del principio de “aleatoriedad”, en el caso de los seguros “paramétricos”, donde las compañías de seguros van a pagar el siniestro si excede una cantidad determinada de lluvia, granizo o inundaciones en los seguros agrícolas, se presenta la posibilidad de las aseguradoras, gracias a los algoritmos inteligentes, de tener un conocimiento preciso y detallado del futuro, lo que lo desnaturaliza o puede implicar ganancias indebidas para las aseguradoras
En lo que hace a diversas disposiciones de la ley de seguros, como la mayoría de las informaciones que debería dar el asegurado se encuentran ya en la nube a disposición de la aseguradora, y dado que ésta posee herramientas tecnológicas para ampliar la información al asegurado, se ponen en jaque ciertos principios y reglas como las siguientes:
- La “reticencia” del asegurado.
- La aceptación de la modificación unilateral de la póliza por la aseguradora
- La relevancia de las caducidades en la producción del siniestro
- La propia denuncia del siniestro y el consecuente comienzo del plazo para aceptar o rechazar el siniestro
- La aplicación de la “prorrata” cuando la aseguradora debería proponer la suma asegurada
En tales casos, para la plena operatividad de las disposiciones referidas debería la aseguradora, en todo caso, acreditar ella que le resultó imposible acceder a esa información, invirtiéndose la carga de la prueba.
5.3.-OTRAS CUESTIONES JURÍDICAS.
Destaca la doctrina que las principales cuestiones jurídicas que la aplicación de la I.A. en los concursos plantea se refieren, principalmente y en primer lugar, al tratamiento de los datos personales que muchas veces se toman de diversas fuentes sin contar con el consentimiento del asegurado y sin que se configuren las excepciones de la ley 25.326.
En segundo término está la cuestión de los sesgos discriminatorios que están prohibidos conforme con las normas constitucionales, convencionales y con la ley 23.592.
Tales sesgos llevar a un trato inequitativo en la fijación de la prima, al denominado “precio discriminatorio”, por el cual se cobra un precio mayor a asegurados que tienen menos riesgos pero una situación económica más vulnerable, o también les cobran mayores costos de seguros a personas que no suelen hacer comparaciones de precios en internet.
6.-EL ARBITRAJE COMERCIAL.
El arbitraje comercial ha ido evolucionando de procedimientos analógicos y jueces humanos a procedimientos digitalizados incluso mediante plataformas descentralizadas
Al respecto cabe mencionar a las formas de resolución extrajudicial de litigios en línea, denominada “ODR” (“On line Dispute Resolution”), pensadas para litigantes ubicados en diversos lugares del mundo, y que comenzó por conflictos entre clientes y proveedores y fue evolucionando.
En la actualidad, en base a la utilización de la I.A., se desarrollaron sistemas de decisiones basados en algoritmos y sistemas de jurados en red que utilizan la teoría de los juegos. El proceso de ODR consiste en completar documentos on line, firmarlos digitalmente, identificar la pretensión, y luego del reclamo y su responde la plataforma puede proveer un jurado.
En otros casos, la plataforma puede directamente resolver el caso con base a casos análogos.
Alguna doctrina se preocupa por la vigencia de las reglas del debido proceso en arbitrajes realizados utilizando el blockchain y propone diversas pautas.
Entiendo que la resolución de conflictos sin intervención de jueces humanos solo podría tener cabida en para ciertas materias de limitado monto y sin trascendencia humana, debiendo quedar siempre un recurso a un tribunal humano.
7.- LA GESTIÓN DE LOS PROCESOS CONCURSALES.
7.1.-LA I.A. EN LOS TRIBUNALES.
El uso de la inteligencia judicial en la Justicia está en pleno desarrollo y presenta múltiples desafíos.
Al respecto, frente a su creciente utilización en los juicios, el Reino Unido elaboró una “Guía sobre el uso de la inteligencia artificial en la Justicia”, que rige desde diciembre de 2023 que señala ciertos principios como la capacitación del juez sobre las capacidades y limitaciones de la I.A., la preservación de la confidencialidad y privacidad de la información, la precisión, los sesgos, la seguridad, la responsabilidad, etc., no recomendando su utilización en la investigación jurídica.
Por su lado, la Comisión Iberoamericana de Ética Judicial, en su dictamen del 12 de marzo de 2020, adopta un enfoque positivo pero prudencialista e instrumental, propone la utilización de la I.A. para tareas rutinarias y procesos cuantitativos, y destaca tres brechas: la brecha digital de acceso, la de capacitación del personal judicial y la de confianza en el servicio de justicia.
En cuanto a su concreta utilización, puede diferenciarse diversas áreas.
i.-En algunos casos la I.A. se utiliza para efectuar predicciones a las que se asigna mayor o menor valor.
Por ejemplo, en Estados Unidos el sistema “Compas” analiza, según los antecedentes sociales y penales de un acusado y un cuestionario al imputado, sus probabilidades de reincidir, lo que calcula el riesgo de reincidencia y es tenido en cuenta por el juez para otorgar la libertad condicional, lo que ha sido cuestionado por la imposibilidad de controlar a los algoritmos que se utilizan
En la Ciudad de Buenos Aires, existe el sistema “Prometea”, creado en 2017 en el Laboratorio de Innovación e Inteligencia Artificial de la Universidad de Buenos Aires (IALAB), y también utilizado en la Corte Constitucional de Colombia, que destaca entre sus cualidades que el proceso del algoritmo es abierto, auditable y trazable y que es un proceso entrenado por los jueces. En su faceta predictiva logra obtener la solución aplicable al caso en 20 segundos.
ii.-En otros casos la I.A. se usa para automatizar procesos.
Por ejemplo, en la Fiscalía de Estado de la Provincia de Buenos Aires, el sistema VELOX, también diseñado por el I.A.LAB, se utiliza para la generación de la vista fiscal en los expedientes donde se reclaman intereses por mora en el pago de facturas.
iii.-Finalmente, en algún caso, la I.A. es la encargada de dictar la sentencia.
La doctrina señala la necesidad del debido proceso y de la transparencia de los algoritmos que, en caso de ser opacos amparados en la propiedad intelectual de su dueño, no pueden ser el fundamento principal de una sentencia.
También se distinguen los procesos simples, donde el juez solo comprueba hechos o no están en juego valores fundamentales como la vida, la libertad o una parte importante del patrimonio, de los complejos, pudiéndose dictar sentencias mediante I.A. solo en los primeros y con recurso a un juez humano.
En tal sentido, en la Provincia de Rio Negro, se ha estandarizado y automatizado el dictado de sentencias de ejecuciones fiscales en el fuero Contencioso Administrativo sustituyendo, mediante inteligencia artificial, el control formal que antes hacia un empleado y dictándose la sentencia monitoria según un modelo consensuado por los jueces
Por su parte, en la República de Estonia, los litigios inferiores a siete mil euros son resueltos a través de un sistema con I.A., sin perjuicio de que luego esa decisión pueda ser apelada ante un magistrado humano.
Como reflexión general se advierte que la “e.justice” mejora la accesibilidad a la justicia al reducir barreras geográficas, agiliza los procesos y los hace más transparentes, pero a su vez presenta problemas derivados de la brecha digital, del analfabetismo digital y de atender las necesidades de la explicabilidad, el resguardo de la privacidad y de garantizar la ética.
7.2.-LA APLICACIÓN DE LA I.A. EN LOS CONCURSOS.
La complejidad y las características del proceso concursal, con simultánea realización de actos, multiplicidad de partes, de intereses a tutelar, de situaciones económicas y financieras a considerar en tiempo real y proyecticio, de incidentes, de conexiones con otras causas judiciales, y la necesidad de transitar etapas en el menor tiempo real, promueven la transformación tecnológica de la gestión concursal, la que empezó ante los impedimentos propios de la Pandemia.
Superada tal emergencia, la tecnología llegó para quedarse y para seguirse incrementando en el marco de un proceso que fue caracterizado como un “sistema complejo”.
En tal sentido se pueden mencionar la existencia del expediente concursal digitalizado, las audiencias por medios telemáticos, los oficios DEOX, los mandamientos digitales, y las notificaciones electrónicas, a veces por whatsapp y por mail,
A ello se suman dos institutos en franco proceso de instalación como son la “verificación no presencial de créditos” (VPN) y las subastas “on line”.
Asimismo, como propuestas de la doctrina se destaca la utilización de “formularios inteligentes”
En los últimos tiempos se propone el uso de la “inteligencia artificial” para la gestión de los procesos concursales mediante tres plataformas básicas para cada uno de los procesos: pequeñas y medianas empresas, grandes empresas y personas humanas, las que tendrían a su cargo la gestión, control de requisitos, fijación de plazos, tramite de verificaciones y evaluación del plan, pero quedando en manos del juez las resoluciones sobre verificaciones, homologación, etc..
En particular, se sostiene que la I.A. puede facilitar el desarrollo de modelos predictivos para la valoración de activos, su mejor y más eficiente liquidación y, a la postre, la estimación de tasas de recupero de los acreedores.
En el punto, en la medida en que la i.a. solo realice gestiones, formule cálculos, evaluaciones y recomendaciones pero no tome por sí las decisiones trascendentes del proceso concursal se trata de una propuesta de gran utilidad que corresponde apoyar.
IV.-EPÍLOGO: DESAFIOS LEGALES DE LA INTELIGENCIA ARTIFICIAL.
A modo de síntesis conclusiva señalamos que, nuestro juicio, la i.A. plantea al mundo jurídico los siguientes desafíos:
1.-EN GENERAL.
- a) determinar previamente los concretos campos de aplicación en los cuáles vamos a trasladar o reemplazar el pensamiento y las decisiones humanas por el pensamiento y las decisiones de la “I.A.” (vida personal, consumos, vida social, administraciones, decisiones judiciales, decisiones políticas, etc.)
- b) distinguir las tareas estandarizadas, mecánicas y repetitivas, que pueden confiarse a la I.A., de aquellas donde resulta necesaria la ponderación humana y están en juego los derechos humanos, el pluralismo y la dignidad humana donde la decisión debe quedar en manos de personas.
- c) evitar la afectación del derecho a la privacidad y la derivada manipulación de las ideas, pensamientos y conductas personales (neuroderechos)
- d) preservar la transparencia de los criterios tenidos en cuenta por los algoritmos frente a su natural opacidad
- e) establecer organismos públicos, por ley y bajo control de expertos de la sociedad civil, que supervisen el desarrollo y que puedan suspender las aplicaciones de la I.A. en áreas cuyas consecuencias no pueden aún evaluarse.
- f) resguardar siempre el indispensable control de la autonomía de pensamiento de la “I.A.” por parte de los humanos y la posibilidad de su desconexión inmediata.
2.-EN MATERIA COMERCIAL.
- a) SUJETO COMERCIAL: La atribución a la I.A. de una personalidad electrónica que le permita hacer negocios, estar en el mercado y ejercer el comercio debe ser impedida ya que al carecer de finalidad humana constituiría un serio peligro para la sociedad. Sí podría atribuirse una personalidad limitada a concentrar la responsabilidad de modo que pueda ser luego asignada a las personas humanas o jurídicas de las que la I.A. dependa.
- b) DIRECTORIOS: Si bien consideramos que la “I.A.” puede y debe ser un elemento muy importante a ponderar a la hora de construir las “decisiones informadas” del directorio, o de la sindicatura societaria, entendemos que nunca debería dejar de ser un accesorio de la definitiva y vinculante decisión humana.
- c) FÁBRICAS: Es indispensable que el reemplazo humano por robots en las fábricas inteligentes, y en todos los demás empleos, sea compensado con los impuestos correspondientes al ahorro empresarial que ingrese a un fondo para atender el desempleo.
- d) CRÉDITO: En las calificaciones crediticias resulta necesario transparentar los sesgos de los algoritmos, para evitar la discriminación y, además, extender la inclusión financiera a nuevos sectores mediante nuevas pautas humanistas e inclusivas.
- e) SEGUROS: El uso de la I.A. en los seguros puede implicar modificaciones en la interpretación de las cargas y sanciones de la ley de seguros y, además, debe evitar los sesgos discriminatorios en el cálculo de las primas.
- f) ARBITRAJE: En materia arbitral y judicial, deben distinguirse los procesos simples, donde el juez solo comprueba hechos o no están en juego valores fundamentales como la vida, la libertad o una parte importante del patrimonio, de los complejos, pudiéndose dictar sentencias mediante I.A. solo en los primeros y con recurso a un juez humano
- g) CONCURSOS: En materia concursal la utilización de la i.a. en la gestión para que realice trámites, formule cálculos, evaluaciones y recomendaciones, sin tomar por sí las decisiones trascendentes del proceso, constituye una propuesta de gran utilidad que corresponde apoyar.