Advertencia de investigador: La humanidad podría llegar a su fin en dos años debido a los avances de la IA

En una impactante declaración, un destacado investigador ha advertido que la humanidad podría enfrentar su extinción en un plazo de dos años, todo debido a los avances sin precedentes en el campo de la Inteligencia Artificial (IA). Esta advertencia surge como una llamada de atención sobre los peligros potenciales que conlleva el desarrollo desenfrenado de la IA, alertando sobre la posibilidad de que la humanidad se vea superada por sus propias creaciones. El impacto de esta noticia ha generado un intenso debate en la comunidad científica y en la sociedad en general, planteando interrogantes sobre el futuro de la humanidad y la necesidad urgente de establecer medidas para garantizar la supervivencia de la especie frente a los avances tecnológicos.

Advertencia de investigador: Humanidad en riesgo por avances de la IA en años, Elon Musk alerta: IA podría superar inteligencia humana en un año

Advertencia de investigador: Humanidad en riesgo por avances de la IA en años, Elon Musk alerta: IA podría superar inteligencia humana en un año

La inteligencia artificial (IA) irrumpió en nuestras vidas con el lanzamiento de ChatGPT a finales de 2022 y, desde entonces, ha transformado nuestro día a día al automatizar tareas, crear contenido visual y escrito, realizar búsquedas, simular voces y brindar asistencia médica, entre otras funciones. Sin embargo, los avances de esta tecnología generan preocupación en la sociedad, incluyendo a empresarios como Elon Musk, quien alerta sobre el riesgo de que la IA pueda acabar con la humanidad o superar a la inteligencia humana en 2025.

Para reforzar estas teorías, Eliezer Yudkowsky, investigador y académico estadounidense del Instituto de Inteligencia Artificial de la Universidad de Berkeley, advierte en The Guardian sobre las posibles consecuencias devastadoras de los avances de la IA: Estamos más cerca de ello en cinco años que en 50 años. Podría ocurrir en dos años, diez años, no lo sabemos. Yudkowsky sostiene que la rapidez con la que evoluciona la IA pone en riesgo la supervivencia de la humanidad, ya que muchos subestiman los peligros que conlleva esta tecnología.

Elon Musk, por su parte, plantea que la IA podría superar la inteligencia humana en un plazo de un año, enfatizando la necesidad de abordar esta cuestión con seriedad. En un seminario sobre IA, Musk mencionó que existe un porcentaje de probabilidad de que la IA represente una amenaza para la humanidad, estimando este riesgo entre un 10% y un 20%. Aunque no especificó el escenario en el que la IA se vuelva hostil hacia los humanos.

En medio de estas incertidumbres, es complicado determinar un umbral a partir del cual la amenaza de la IA sea considerada una certeza. Las estimaciones sobre el riesgo de que la IA ponga en peligro a las personas varían ampliamente, desde un 5% hasta un 50%, reflejando la probabilidad de un escenario catastrófico. Roman Yampolskiy, investigador de seguridad de la IA, respalda la preocupación de Musk sobre los riesgos potenciales de la IA, aunque considera que el empresario podría ser cauteloso en su evaluación.

En este contexto de debate y preocupación, se plantea la necesidad de regular la Inteligencia Artificial para garantizar su uso ético y seguro. Mientras algunos abogan por una regulación flexible que promueva la innovación, otros opinan que las restricciones podrían limitar el crecimiento económico. La ausencia de un marco regulatorio claro genera debate sobre cómo gestionar los avances y riesgos asociados a la IA.

Luisa Herrera

Hola, soy Luisa, periodista de la página web El Noticiero, un periódico independiente de actualidad nacional e internacional. Mi pasión es descubrir las últimas novedades y presentarlas con la más rigurosa objetividad a nuestros lectores. Con mi pluma, busco informar, analizar y contextualizar la información para que todos puedan estar al tanto de lo que sucede en el mundo. Mi compromiso es con la verdad y la imparcialidad, para ofrecer un periodismo de calidad que contribuya al debate y la reflexión. ¡Gracias por seguirnos en nuestras noticias!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir