Hawking alerta sobre los avances en ciencia y tecnología: “amenazan la humanidad”

El astrofísico británico cree que la inteligencia artificial, una guerra nuclear o el calentamiento global son algunos de los riesgos para el ser humano

El astrofísico británico Stephen Hawking ha alertado de que los avances en la ciencia y tecnología, junto con una serie de factores que dependen directamente de las personas, amenazan la continuidad de la humanidad. Hawking destaca así los peligros del cientificismo, la nueva religión del siglo XXI, que trata de sustituir en gran medida las éticas tradicionales como la del cristianismo en Europa.

Para el científico, estos progresos derivarán en “nuevas vías por las que las cosas pueden terminar mal” y ha señalado entre los riesgos que podrían poner el mundo en peligro una posible guerra nuclear, el calentamiento global y los virus de ingeniera genética, según adelantó este martes la cadena BBC.

Estas declaraciones se extraen de unas conferencias que Hawking ha grabado y que serán emitidas el próximo 26 de enero y 2 de febrero en el programa Reith Lecture de la BBC Radio 4 sobre sus investigaciones relativas a los agujeros negros.

En respuesta a las preguntas de la audiencia, Hawking aseguró que la humanidad podría sobrevivir si finalmente consigue establecer y levantar colonias en el espacio.

Desastre en los próximos mil años

“A pesar de que la posibilidad de que ocurra un desastre en La Tierra parece ahora muy bajo, será casi una certeza en los próximos mil o diez mil años”, apuntó.

Sin embargo, el científico de 74 años explicó que, para entonces, los humanos se “habrán expandido por el universo” y llegarán “a otras estrellas” por lo que una catástrofe en el planeta “no supondrá el final de la raza humana”.

A pesar de que suene prometedor, Hawking dejó claro que la humanidad “debe ser muy cuidadosa” ahora mismo porque las colonias “autosuficientes” en el espacio exterior no serán factibles hasta pasados “por lo menos cien años”.

El peligro de la inteligencia artificial

El astrofísico ya señaló los riesgos que supondría para la extinción del género humano un avance rápido y fuerte de la inteligencia artificial.

Además, se definió como una persona “optimista” al creer posible que los humanos podrán reconocer a tiempo los peligros de la ciencia y la tecnología para “controlarlos”.

También aconsejó a la nueva generación de jóvenes científicos que su reto consiste en ayudar a entender cómo estos descubrimientos cambiarán el mundo.

inteligenciaartificial

Hazte socio

También te puede gustar

Deja un comentario

Su dirección de correo electrónico no se va a publicar. campos obligatorios *

Puedes utilizar estas etiquetas HTML y atributos: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>