Expertos debaten legislación sobre Inteligencia Artificial
El diputado Daniel Gollán habló con Comunas sobre la importancia de regular la inteligencia artificial para proteger a los ciudadanos vulnerables. En una comisión que trabaja en proyectos de ley sobre el tema, Gollán destacó la necesidad de escuchar a expertos y definir áreas prioritarias para la regulación. También expresó su preocupación por el uso de la inteligencia artificial para manipular información y la importancia de proteger la privacidad y los datos personales.
Por Matías Benítez
La Comisión de Ciencia, Tecnología e Innovación Productiva, que preside el diputado de Unión por la Patria, Daniel Gollán (UxP), recibió en la tercera reunión informativa a invitados especialistas que expusieron acerca de los distintos ejes de la inteligencia artificial. En ese marco, Comunas dialogó con el presidente de la comisión:
¿Cuál es el propósito de la comisión que trabaja en proyectos de ley sobre inteligencia artificial?
La comisión tiene como objetivo analizar y debatir los proyectos de ley relacionados con la inteligencia artificial, con el fin de establecer un marco regulatorio que proteja a los ciudadanos y promueva el uso responsable de esta tecnología. Estamos hablando de una tecnología que tiene un gran potencial para mejorar nuestras vidas, pero también puede ser utilizada para fines maliciosos si no se regula adecuadamente.
¿Por qué considera que es importante regular la inteligencia artificial?
Es importante regular la inteligencia artificial porque podemos estar hablando de una tecnología que puede ser utilizada para manipular información, violar la privacidad y afectar la seguridad de los ciudadanos. Si no establecemos un marco regulatorio claro, podemos estar permitiendo que se produzcan abusos y violaciones de derechos que pueden tener consecuencias graves.
¿Cuáles son las áreas prioritarias para la regulación de la inteligencia artificial, en su opinión?
A través de la inteligencia artificial se potencian riesgos que hoy ya están, que hoy existen. Nuestros datos están en manos de todo el mundo, existe el riesgo de que empiece una manipulación cognitiva de cosas que ni siquiera existen, que se le asigna a determinadas personas haber realizado determinadas acciones que no se compadecen con la realidad, sino que son una creación artificial. Las áreas prioritarias para la regulación de la inteligencia artificial incluyen la protección de la privacidad y los datos personales, la seguridad y la prevención de abusos, la transparencia y la rendición de cuentas, y la promoción del uso ético y responsable de la tecnología. Debemos asegurarnos de que la inteligencia artificial se utilice de manera que beneficie a la sociedad en su conjunto, y no solo a unos pocos.
¿Cómo se puede proteger la privacidad y los datos personales en la era de la inteligencia artificial?
Se puede proteger la privacidad y los datos personales en la era de la inteligencia artificial mediante la implementación de medidas de seguridad robustas, la obtención de consentimiento informado de los usuarios, la limitación del acceso a los datos personales y la promoción de la transparencia en el uso de la tecnología. Debemos ser conscientes de que la inteligencia artificial puede ser utilizada para recopilar y analizar grandes cantidades de datos personales, y debemos tomar medidas para proteger la privacidad de los ciudadanos.
¿Cuál es su experiencia personal con la inteligencia artificial?
Mi experiencia personal con la inteligencia artificial es limitada, pero he tenido algunas experiencias negativas con el ChatGPT que me han hecho desconfiar de esta tecnología. Con unos amigos arreglamos para a ir cuatro días a las termas, y uno de ellos, que se encargaba de alquilar, dice: “voy a desalquilar todo, no vayamos porque las termas están todas inundadas, son muy peligrosas, las autoridades están tomando medidas”. Todo con una irrealidad total. Después te explican que eran datos del 21, que había tomado datos viejos de otra época, la verdad es que, mientras todo eso pasa, casi los cuatro estuvimos por no ir y desalquilar. Hay que investigar bien porque va a haber sesgos en la medida que no podamos tener datos buenos, fidedignos, muy actualizados, en definitiva, esto de la inteligencia artificial tiene una potencia enorme para procesar datos, con un algoritmo que le da un sentido, a veces parece un pensamiento propio, pero no lo tiene la máquina, sino que elabora en base a información que les han dado a los seres humanos.
En otro tema relacionado, el presidente Milei decretó restringir el acceso a la información pública ¿Cuál es su postura?
Critiqué el decreto firmado por el presidente Millei porque considero que es un ejemplo del oscurantismo y autoritarismo del gobierno actual. La restricción del acceso a la información es un ataque a la transparencia y la rendición de cuentas, y puede tener consecuencias negativas para la democracia y la sociedad en general. Debemos ser conscientes de que el acceso a la información es fundamental para la participación ciudadana y la toma de decisiones informadas.
Especialistas expusieron sobre la IA
María Laura Garrigós, abogada (UBA) y especialista en Derecho Penal (UP), explicó que la “Inteligencia Artificial ya es parte de la labor cotidiana en los poderes judiciales. Hoy la Cámara contenciosa administrativa de la ciudad está llevando las ejecuciones fiscales con un programa de IA. Son trámites burocráticos con poca complejidad, pero no deja de ser un trámite judicial con la firma de un juez”, advirtió. Asimismo, habló del programa Prometeo que se está utilizando en CABA, Córdoba, corrientes y Chaco. “Estamos utilizando IA sin control, comprando a proveedores privados sin regulación estatal y tampoco con seguridad de como termina esta historia y que problemas puede tener”, dijo antes de proponer “tomar la ley europea para desmenuzarla y pensar que podemos aplicar acá”.
Andrés Gil Domínguez, doctor y posdoctor en Derecho por la UBA, abordó el tema desde «el marco de la cuarta revolución industrial y tiene un factor exponencial de aceleración de la tecnología nunca vista en la historia. La regulación que se haga tiene que tener en cuenta esta aceleración”. “No solamente hablamos de IA, sino de nanotecnología, biotecnología, blockchain, metaverso y en un futuro cercano informática cuántica, no solamente vamos a regular la IA en solitario sino también vinculado con otros sectores emergentes tecnológicos de la cuarta revolución industrial”, aseguró.
Además, explicó que hay tres tipos de modelos de IA: modelo hiper regulado; de contención y co-evolutivo. “Argentina tiene una ventana de oportunidad única para no tener un modelo hiper regulado sino ir a un modelo coevolutivo, tiene la posibilidad de ser un polo de desarrollo de inteligencia artificial”, afirmó.
En tanto, Sandra D’Agostino, calculista Científico de la UNLP, Máster en Ingeniería de Software (UNLP), expresó la “capacitación es fundamental para que sepan los riesgos y beneficios que pueda tener la IA. Es necesaria una ley que la materia contemple las distintas responsabilidades indirectas y directas saber que puede pasar en el mal uso”.
Como conclusión, la científica manifestó que “hay áreas claves en política como la gobernanza de datos, el impacto y evaluación, capacitación para que a nivel nacional se beneficien de la IA, tenemos que asegurarnos que los funcionarios y la ciudadanía conozca de que estamos hablando”. “Entendemos que es esencial garantizar que la adopción y desarrollo de la IA se realice de manera ética, justa, segura, transparente protegiendo a las personas y promoviendo la innovación responsable”, sostuvo.
Por su parte, Juan Manuel Ottaviano, abogado laboralista- UBA, asesor sindical especialista en Derecho del Trabajo y de la Seguridad Social, consideró que “hay un problema de abordaje que es la anticipación a escenarios futuristas, tienen mucho de coyuntural y poca evidencia. No hay un acuerdo en la literatura, en la academia entre quienes estudian el impacto de la IA en el trabajo sobre la cuestión de la sustitución, los reemplazos, la eliminación de puestos de trabajo”, dijo y resaltó que “regular en base a hipótesis de futuro puede llevar a algunos a impedir el desarrollo de la IA, y a otros por el contrario, a fortalecer innovar en la IA para desvalorizar el trabajo humano”. Por ello, consideró importante “pensar la regulación en un balance entre innovación y protección de derechos, no una competencia entre estos factores”.
Diego Torres, doctor en Informática de la Universidad Nacional de La Plata y de la Universidad de Nantes, se centró en tres aspectos: confiabilidad de los modelos; impacto energético; y formación de grupos de trabajo. Particularmente, explicó que el “último año estrategias de posicionamiento comercial han puesto en agenda a las IAS generativas, como el chatgpt, meta y las relacionadas a Google. Le asignamos erróneamente criterios de verdad, y estas IA generan imágenes y textos que son convincentes y ese es el fin pero a veces es verdad, y a veces no y ese es el riesgo”.
Finalmente, dijo que es importante conocer a las principales empresas de IA que “son grandes corporaciones que poseen el monopolio del manejo y conocimiento de estas tecnologías y el monopolio energético para hacerlas funcionar. Los soportes son costosos y consumen mucho recurso energético”. Asimismo, expresó que es necesario formar equipos especializados para el estudio y desarrollo de la IA en el país. No se puede regular algo que no se entiende o en el peor de los casos, algo que no podrá auditarse”.
Participaron, además, Belén Bavio, prosecretaria de Asuntos Profesionales de FOETRA; Alfredo Moreno, computador Científico por la FCEN- UBA; Marcelo Muscillo, especialista en Estrategia y Negociación, en asesoramiento legislativo en cuestiones de Gobernanza Global, IA / IT; Germán Suppo, ingeniero Mecánico (UTN) y docente de la Universidad Tecnológica Nacional (UTN), entre otros.