Noticias
seminario IA

Especialistas abordaron los avances y peligros de la inteligencia artificial

Especialistas abordaron los avances y peligros de la IA

El seminario “Inteligencia artificial con ética en el centro: En la búsqueda de soluciones desde la multidisciplinariedad”, organizado por la Asociación de Ética en Datos e Inteligencia Artificial (AEDIA), la Iniciativa de Datos e Inteligencia Artificial (IDIA), el Centro de Modelamiento Matemático (CMM) y Estudios Transversales en Humanidades para las Ingenierías y Ciencias (ETHICS) de la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile, reunió a especialistas y autoridades para abordar los desafíos y peligros de la IA, quienes llamaron a entenderla y evaluar cómo abordar los aspectos éticos que la rodean.

Podemos ver muchos avances positivos en el uso de la inteligencia artificial y también hay peligros, por ejemplo, el uso de tecnologías biométricas, los sistemas de reconocimiento facial y nuestros datos privados. Por lo tanto, en este contexto, el abordaje ético es solo una de las cuestiones que son urgentes de tomar en cuenta y de abordar”, señaló la subsecretaria de Ciencias, Tecnología, Conocimiento e Innovación, Carolina Gainza, quien anunció que el próximo 23 y 24 de octubre, en el marco del “Foro sobre ética de la inteligencia artificial América Latina y el Caribe”, Chile presentará una actualización a la Política de Inteligencia Artificial de 2021.

No queremos que las tecnologías reproduzcan las desigualdades o generen nuevas desigualdades en nuestras sociedades. Queremos una inteligencia artificial responsable y transparente, sin discriminación, diversa y con perspectiva de derechos humanos (…) nuestro horizonte son sociedades sostenibles, donde buscamos superar brechas e inequidades, sustentables y sostenibles ambientalmente, también, donde el punto más importante es el bienestar de las personas”, agregó la autoridad.

En esa línea, el decano de la FCFM de la Universidad de Chile, Francisco Martínez, señaló que la IA “abre una discusión tan profunda que está contribuyendo a una renovación de la estructura de valores societarios, de aquellos en los cuales el siglo pasado y a principios de siglo, probablemente, concebíamos como los valores esenciales de nuestra sociedad, construida por la humanidad durante muchos siglos. Ahora se abren nuevas preguntas que cuesta contestar con referencia a aquello que significaban nuestros saberes, nuestros acuerdos sociales, nuestra visión de quiénes somos los humanos, cómo nos comportamos y cómo nos relacionamos. Así de fascinante encuentro este tema: todo por hacer, todo por conocer, todo por reflexionar”.

Felipe Tobar, coordinador del área de Ciencia de Datos del CMM y director de la Iniciativa de Datos e Inteligencia Artificial (IDIA), detalló que “es importante entender que esta es una herramienta muy potente, pero hay que saber cómo se usa para resguardar la seguridad de las personas (…) el uso va un poco más adelante que la regulación. Entonces no es que estén haciendo algo malo, ética o moralmente seguro, es debatible, pero lo que están haciendo no es ilegal porque no hay regulación al respecto. Es muy importante poner estos tema sobre la mesa para que los tomadores de decisión entiendan que es una urgencia y legislen al respecto”.

Llamado de alerta

El seminario contó con la charla principal de la británico-española Amanda Cercas, investigadora de la Universidad Bocconi de Italia. “Quiero que la gente se informe más de cómo funcionan y qué es lo que realmente están haciendo esos sistemas, que no es saber nada ni responder a preguntas realmente, solo es imitar el lenguaje humano y ya”, inició.

Cercas hizo hincapié en “cómo el antropomorfismo, que es darle características humanas a la inteligencia artificial, afecta a nuestra percepción a nivel de usuarios, de cuán inteligente son esos sistemas, sus capacidades y cómo en realidad nos engañan, y no son ni tan inteligentes ni tan capaces. Es solo un espejismo”.

“El problema aquí es que si no sabemos realmente cuán inteligentes son estos sistemas, podemos fiarnos demasiado. Entonces es un problema de seguridad. Lo que quiero es poner un llamamiento a los desarrolladores de inteligencia artificial para no sobre utilizar técnicas de antropomorfización. Y también proponer una llamada al público para que se mantenga más informado de cómo funcionan esos sistemas y cuáles son realmente sus capacidades”, remató.

La instancia, además, contó con una mesa de discusión multidisciplinaria compuesta por Gabriela Arriagada, de la Pontificia Universidad Católica de Chile; Ana María Castillo, profesora de la Facultad de Comunicación e Imagen de la Universidad de Chile y codirectora del Núcleo Inteligencia Artificial y Sociedad (IA+SIC); y Claudia López, académica del Departamento de Informática de la Universidad Técnica Federico Santa María.

“Yo soy informática y trabajo en lo que se llama interacción humano-computador y desde ahí, desde los inicios de la disciplina hace más de 40 años atrás, siempre estaba en el centro de la tecnología el para qué hacemos tecnología y cómo involucramos a las personas en el proceso de idear, desarrollar y luego testear la tecnología. Entonces la inteligencia artificial irrumpió en las vidas de muchas personas y uno comienza a ver que ha habido un desarrollo tecnológico que se ha desapegado de la preocupación de qué es lo que le pasa a las personas. Entonces, hay una serie de métodos y de técnicas que usamos en la interacción humano-computador que se pueden poner hoy día al servicio del desarrollo de tecnologías que incluyen inteligencia artificial”, puntualizó López.

Nueva Política de Inteligencia Artificial

Durante la actividad, la subsecretaria de Ciencias, Carolina Gainza, anunció que el próximo 23 y 24 de octubre, en el marco del “Foro sobre ética de la inteligencia artificial América Latina y el Caribe”, Chile presentará una actualización a la Política de Inteligencia Artificial de 2021, que “estaba articulada en torno a tres ejes: factores habilitantes, desarrollo de acción y ética. Esto hoy día tenemos que abordar con más fuerza, los desafíos éticos, los aspectos normativos, los aspectos sociales y económicos y culturales”.

“Es muy importante que nuestra región tenga una voz en una discusión que es mundial. No nos podemos quedar atrás, no nos podemos quedar fuera respecto a una discusión que finalmente está marcando el destino de nuestras sociedades en materia de desarrollo tecnológico”, concluyó la secretaria de Estado.

Galería de fotos

Últimas noticias

Avanzando en el estudio de la Falla Cariño Botado:

Colaboración entre FCFM y Municipalidad de San Esteban en geociencia

Generar facilidades para la investigación de los fenómenos naturales en el territorio de la comuna de San Esteban, que permitan el desarrollo del conocimiento de la geociencia y así comprender los riesgos presentes en el entorno, forman parte del acuerdo que firmó la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile con la Municipalidad de San Esteban

Investigador DGF-PRS implementa sistema para pronosticar erupciones

Leoncio Cabrera desarrolló un modelo capaz de pronosticar erupciones volcánicas con un margen de anticipación de entre 5 y 75 horas, trabajo en el que también participaron colegas de Chile, Argentina y Nueva Zelanda. Para ello se estudiaron años de datos sísmicos con especial foco en las 48 horas previas a seis pulsos eruptivos en el volcán Copahue.