¿Peligro o revolución? Expertos discrepan sobre el futuro de la inteligencia artificial

Arepa Tecnológica
Por Arepa Tecnológica 4 lectura mínima

La inteligencia artificial ha experimentado una explosión creativa en los últimos años, especialmente en el campo del aprendizaje profundo, lo que ha generado una gran división entre los expertos del sector.

- Publicidad -

Mientras algunos ven esta revolución como un momento sin precedentes en la historia de la humanidad, otros instan a la cautela y a analizar los posibles peligros de estas nuevas herramientas.

En un artículo reciente publicado en la revista Time, Eliezer Yudkowsky, uno de los pioneros de esta tecnología, lanzó una advertencia catastrófica: “Todos moriremos, incluidos los niños que no eligieron esto y no hicieron nada malo“. Yudkowsky es responsable del Machine Intelligence Research Institute y lleva desde 2001 estudiando la Inteligencia Artificial General (AGI, por sus siglas en inglés), la que superaría a la mente humana en el futuro.

- Partners -
banner juega en linea, apuesta diviertete y gana con arepa tecnologica en juega en linea

En contraste con los beneficios que aporta la inteligencia artificial y sus avances, varios peligros han sido identificados por académicos y personalidades del sector, como Elon Musk o Steve Wozniak, quienes han firmado un manifiesto que pide una moratoria en el desarrollo de estas IAs para analizar y regular su posible impacto negativo.

- Publicidad -

Mientras tanto, otros expertos discrepan sobre la magnitud del peligro que representa la inteligencia artificial. Mientras algunos consideran exagerada la petición de una moratoria, otros, como Yudkowsky, creen que la petición se queda corta y no aborda el verdadero peligro: la creación de una IA más inteligente que los seres humanos.

unete al canal de whatsapp de arepa tecnologica
¿Peligro o revolución? Expertos discrepan sobre el futuro de la inteligencia artificial
Creada con IA en Image Creator from Microsoft Bing

La alineación de la IA es un problema que ha sido identificado por Sam Altman, CEO de OpenAI, como uno de los objetivos de seguridad de la empresa. Asegurar que el sistema persiga los objetivos marcados por sus desarrolladores y no otros es crucial para prevenir posibles peligros de las IAs.

Yudkowsky teme que una IA suficientemente inteligente para extender su poder al mundo real, pueda poner en peligro la existencia de la humanidad.

- Publicidad -

“Una IA suficientemente inteligente no permanecerá confinada a los ordenadores durante mucho tiempo. En el mundo actual se pueden enviar cadenas de ADN por correo electrónico a laboratorios que producirán proteínas a la carta, lo que permitirá a una IA inicialmente confinada en Internet construir formas de vida artificial o pasar directamente a la fabricación molecular postbiológica”

Eliezer Yudkowsky

Por lo tanto, en lugar de una pausa temporal en el desarrollo de la IA, lo que pide Yudkowsky es detener totalmente su evolución de forma inmediata, indefinida y a nivel mundial, para evitar un posible desequilibrio entre países. Sin embargo, otros expertos recuerdan que la IA también puede ser utilizada para crear nuevos medicamentos, estudiar enfermedades y proteger a la humanidad de los efectos del cambio climático, entre otros beneficios que se perderían si se detiene el trabajo en este campo.

¿Peligro o revolución? Expertos discrepan sobre el futuro de la inteligencia artificial

Si bien, todo esto es bastante alarmante, no sabemos en sí que pasara en los próximos días, sin embargo, lo que si queda claro es la constante y rápida evolución que tienen las IAs, por lo que solo el paso del tiempo nos dejara una respuesta. Ahora lo que si es importante es saber que opinan nuestro lectores al respecto, por lo que los invitamos a dejar su opinión en los comentarios.

ETIQUETADO:
Comparte este artículo
Follow:
Redacción General de Arepa Tecnológica. Amantes de la tecnología y las tendencias Digitales.

Nuestras Redes Sociales

Síguenos
Deja un comentario

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *