Noticias
IA

Expertos abordan advertencia sobre los peligros de la inteligencia artificial para la humanidad

Expertos abordan advertencia sobre peligros del IA para la humanidad

Pese a la muerte de dos de sus integrantes, The Beatles regresará a la historia con el estreno de “Now and then” anunciada como la canción final del grupo, un tema que se pudo realizar a través de un casette que John Lennon le dedicó a Paul McCartney y el uso de la inteligencia artificial. Pese a estas noticias, que alegran no solo a fanáticos de la desaparecida banda británica, hay preocupación entre los expertos y figuras públicas por los riesgos que puede enfrentar la humanidad por el avance de esta tecnología y advierten incluso el “riesgo de extinción” para la humanidad.

Decenas de líderes de la industria de la inteligencia artificial, académicas/os y celebridades firmaron un documento publicado por el Centro para la Seguridad de la IA, donde sostienen que "mitigar el riesgo de extinción de la inteligencia artificial (IA) debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear".

El académico del Departamento de Ingeniería Industrial de la FCFM, Juan David Velásquez, explica que la invitación de las y los expertos “no es a frenar el desarrollo de la inteligencia artificial, como por ahí hemos escuchado en todos lados y se ha transformado en una paranoia colectiva. El punto es ‘mira, esto que estamos desarrollando va tan rápido, tremendamente rápido, que necesitamos un momento para ver las implicancias que ha de tener, cómo regularlo para sacar lo mejor'”.

“Todas estas personas están diciendo ‘oye, tengamos ojo en esto, porque si esto no lo manejamos bien se nos puede salir de las manos’. Ahora ¿es suficiente con una regulación? Yo creo que no, aquí hay que acompañarlo de otras cosas: la regulación y la educación sobre lo que es la inteligencia artificial”, agrega Velásquez.

Por su parte, Néstor Becerra, director del Laboratorio de Procesamiento y Transmisión de Voz del Departamento de Ingeniería Eléctrica de la FCFM, plantea que “la declaración es muy escueta, pero seguramente se piensa en regular". No obstante, señala que "hay que tener cuidado cuando las grandes empresas hablen de prohibir los desarrollos de la IA. Puede ser una situación del tipo ‘no es necesario que ustedes lo hagan, pero yo lo haré’ o ‘ustedes no, yo sí’. La IA es muy demandante de recursos humanos y hay gran potencial de talento en América Latina”, asegura el profesor Becerra.

Sobre la posibilidad de frenar los avances en inteligencia artificial, Becerra añade que “es inútil y poco consecuente con promover el progreso científico y tecnológico de la humanidad, pero sí creo que es importante analizar esto desde una perspectiva top-down: analizar sus aplicaciones y, si es necesario, regular de modo ‘inteligente’, valga la redundancia, para no obstaculizar el desarrollo de la IA (...) Es como la física nuclear, en el sentido de prohibir las explosiones de bombas, pero no la investigación en temas como la fusión nuclear, que puede ser una fuente de energía prácticamente inagotable y limpia”, ejemplifica el académico.

Riesgos versus beneficios

El profesor Velásquez explica que “las tecnologías tienen sus riesgos. Piensa tú en la bomba atómica, la energía nuclear, pero estamos curando el cáncer, entonces, hay que ponerle alerta ahora ya”, sostiene. En esta línea, además, advierte que si bien se está regulando el tema de la inteligencia artificial, no se está haciendo con la celeridad que se necesita.

“Yo también comparto que si no lo regulamos correctamente, se nos puede escapar de las manos, pero también creo que si empezamos con una paranoia excesiva, que vamos a tener un terminator 3 caminando por la calle, frenamos el avance. Creo que tenemos una oportunidad como generación dorada de decir: ok, esto es beneficioso, pero hay que definirlo de la siguiente forma y controlarlo, controlar esta bomba atómica para que no explote y nos sirva como energía nuclear”, dice Velásquez.  

El profesor Néstor Becerra, en tanto, sentencia que “la inteligencia artificial es una tecnología disruptiva y su impacto debe ser analizado para que podamos adaptarnos, pero no tratar de prohibirla".

Galería de fotos

Últimas noticias

Avanzando en el estudio de la Falla Cariño Botado:

Colaboración entre FCFM y Municipalidad de San Esteban en geociencia

Generar facilidades para la investigación de los fenómenos naturales en el territorio de la comuna de San Esteban, que permitan el desarrollo del conocimiento de la geociencia y así comprender los riesgos presentes en el entorno, forman parte del acuerdo que firmó la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile con la Municipalidad de San Esteban

Investigador DGF-PRS implementa sistema para pronosticar erupciones

Leoncio Cabrera desarrolló un modelo capaz de pronosticar erupciones volcánicas con un margen de anticipación de entre 5 y 75 horas, trabajo en el que también participaron colegas de Chile, Argentina y Nueva Zelanda. Para ello se estudiaron años de datos sísmicos con especial foco en las 48 horas previas a seis pulsos eruptivos en el volcán Copahue.