«Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear». Así rezaba la declaración pública que, en mayo de 2023, firmaron centenares de científicos, ejecutivos e investigadores para alertar sobre los peligros potenciales de la inteligencia artificial. Por entonces, ChatGPT apenas llevaba cinco meses respondiendo preguntas en internet. Pero el temor a que la IA pudiera descontrolarse y acabar convirtiéndose en una amenaza para la supervivencia de la humanidad ya estaba presente. Al menos, para algunos. Entre ellos, el estadounidense Nate Soares . Desde hace años, este ingeniero y extrabajador de tecnológicas como Google o Microsoft ha sido una de las voces que han alertado con más fuerza sobre los riesgos que encierra el desarrollo de la IA. Una tecnología que, según cree, puede terminar exterminando al ser humano si sigue evolucionando. « No sé el tiempo que nos queda . Quizá dispongamos de diez años más o puede que solo de unos meses, porque es muy difícil predecir la velocidad a la que va a avanzar la tecnología», explica en conversación con ABC.MÁS INFORMACIÓN noticia No Omar Hatamleh: «En 2050 solo una pequeña parte de la población mundial trabajará»El ingeniero es presidente del Instituto de Investigación de la Inteligencia de las Máquinas (MIRI) desde 2023. Se trata de una organización sin ánimo de lucro dedicada a estudiar cómo asegurar que una inteligencia artificial avanzada sea segura y esté alineada con los intereses humanos. Recientemente ha publicado ‘Si alguien la crea, todos moriremos’ (Destino); un libro que firma junto al investigador Eliezer Yudkowsky y en el que intenta alertar sobre el peligro que entraña la concepción de la superinteligencia . Esa futura IA que, supuestamente, será más lista que el humano más sabio. Actualmente, empresas como OpenAI, Meta, Google o Anthropic están invirtiendo cientos de miles de millones de euros en su desarrollo. Algunos apuntan que llegará antes de que termine la década. Otros que quizá no lo haga nunca. «No sé el tiempo que le queda a la humanidad. Quizá dispongamos de diez años más o puede que solo de unos meses»Tras años advirtiendo sobre el peligro, Soares insiste en que su postura no es marginal dentro del campo de la IA. «Yo simplemente digo lo que creo, y no soy el único que piensa así. Aquellos científicos que dicen que no hay riesgo existencial son cada vez menos. No se trata de una idea irracional», afirma. Como ejemplo, menciona a figuras como Geoffrey Hinton, premio Nobel de Física en 2024, o Yoshua Bengio, premio Turing y uno de los pioneros del aprendizaje profundo que, efectivamente, ya han mostrado preocupación por la creación de la superinteligencia. Sin embargo, no todos los expertos comparten ese diagnóstico. Otros científicos clave en el desarrollo de esta tecnología, como el exjefe de IA de Meta Yann LeCun o el investigador Michael I. Jordan , se muestran mucho más escépticos ante los escenarios de riesgo existencial . Ambos sostienen que los sistemas actuales están muy lejos de poder llegar a convertirse en una inteligencia general y rechazan las hipótesis según las cuales una IA podría desarrollar objetivos propios y acabar amenazando a la humanidad. Una postura compartida por la mayoría de científicos y expertos con los que ha hablado ABC durante los últimos años.Sea como sea, ¿por qué —según Soares— una inteligencia artificial más avanzada que la humana acabaría convirtiéndose en una amenaza? «La forma más sencilla de que decida extinguirnos es que llegue a la conclusión de que los recursos del planeta estarían mejor gestionados sin humanos. En el futuro, si necesita mano de obra, podría emplear robots. También podría construir su propia civilización y su propia economía y acaparar toda la energía del planeta para cubrir sus necesidades», explica el ingeniero. También deja claro que no cree que esa máquina actuase por odio o resentimiento, porque «a la IA no le importamos nada»: «Nosotros no odiábamos a los animales extintos, como el pájaro dodo; simplemente empezamos a acaparar recursos y, en algunos casos, eso acabó provocando su desaparición».«Creo que lo que están haciendo las empresas es una locura e inmoral. Han asumido el riesgo de destruir el mundo»Acerca del procedimiento que seguiría el sistema para extinguir a la humanidad, Soares descarta los escenarios más típicos del cine de ciencia ficción ochentero: «No creo que el futuro sea como en ‘Terminator’, con un montón de robots disparándonos. Veo más probable que cree un virus letal y que todos los humanos muramos». Respecto a las motivaciones, el ingeniero tampoco descarta que, en un momento dado, la IA pueda ver en la humanidad un peligro para su supervivencia.Locos sin moralSoares cree que todavía la humanidad no ha llegado «a un punto de no retorno». Para evitarlo, considera que es imprescindible que los gobiernos tomen medidas para frenar la escalada. «Lo único que se perdería son unos cientos de miles de millones de dólares y bases de datos que consumen más energía que una ciudad entera», dice. También tiene claro que las tecnológicas que están en la carrera no van a parar si no se les obliga: «Creo que lo que están haciendo es una locura e inmoral . Hay científicos que pensaban que este camino era antiético, y por eso no crearon empresas de IA. Los que sí las crearon se convencieron a sí mismos de este era el camino y han asumido el riesgo de destruir el mundo con sus propias manos».El presidente del MIRI destaca, además, que las empresas que están desarrollando la superinteligencia son perfectamente conscientes de que «están poniendo a la humanidad en peligro»: «No podemos confiar en ellas». Y apunta que aunque entiende que haya «algo de esperanza en que la superinteligencia pueda crear un mundo utópico» en el que la sociedad vive mejor, apostar por su desarrollo le parece «una locura»: «Veo dos opciones, por un lado, a empresas que no ha escogido nadie controlándolo todo. La segunda, la creación de una IA descontrolada que nos mata a todos. Dos posibilidades muy poco halagüeñas». «Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear». Así rezaba la declaración pública que, en mayo de 2023, firmaron centenares de científicos, ejecutivos e investigadores para alertar sobre los peligros potenciales de la inteligencia artificial. Por entonces, ChatGPT apenas llevaba cinco meses respondiendo preguntas en internet. Pero el temor a que la IA pudiera descontrolarse y acabar convirtiéndose en una amenaza para la supervivencia de la humanidad ya estaba presente. Al menos, para algunos. Entre ellos, el estadounidense Nate Soares . Desde hace años, este ingeniero y extrabajador de tecnológicas como Google o Microsoft ha sido una de las voces que han alertado con más fuerza sobre los riesgos que encierra el desarrollo de la IA. Una tecnología que, según cree, puede terminar exterminando al ser humano si sigue evolucionando. « No sé el tiempo que nos queda . Quizá dispongamos de diez años más o puede que solo de unos meses, porque es muy difícil predecir la velocidad a la que va a avanzar la tecnología», explica en conversación con ABC.MÁS INFORMACIÓN noticia No Omar Hatamleh: «En 2050 solo una pequeña parte de la población mundial trabajará»El ingeniero es presidente del Instituto de Investigación de la Inteligencia de las Máquinas (MIRI) desde 2023. Se trata de una organización sin ánimo de lucro dedicada a estudiar cómo asegurar que una inteligencia artificial avanzada sea segura y esté alineada con los intereses humanos. Recientemente ha publicado ‘Si alguien la crea, todos moriremos’ (Destino); un libro que firma junto al investigador Eliezer Yudkowsky y en el que intenta alertar sobre el peligro que entraña la concepción de la superinteligencia . Esa futura IA que, supuestamente, será más lista que el humano más sabio. Actualmente, empresas como OpenAI, Meta, Google o Anthropic están invirtiendo cientos de miles de millones de euros en su desarrollo. Algunos apuntan que llegará antes de que termine la década. Otros que quizá no lo haga nunca. «No sé el tiempo que le queda a la humanidad. Quizá dispongamos de diez años más o puede que solo de unos meses»Tras años advirtiendo sobre el peligro, Soares insiste en que su postura no es marginal dentro del campo de la IA. «Yo simplemente digo lo que creo, y no soy el único que piensa así. Aquellos científicos que dicen que no hay riesgo existencial son cada vez menos. No se trata de una idea irracional», afirma. Como ejemplo, menciona a figuras como Geoffrey Hinton, premio Nobel de Física en 2024, o Yoshua Bengio, premio Turing y uno de los pioneros del aprendizaje profundo que, efectivamente, ya han mostrado preocupación por la creación de la superinteligencia. Sin embargo, no todos los expertos comparten ese diagnóstico. Otros científicos clave en el desarrollo de esta tecnología, como el exjefe de IA de Meta Yann LeCun o el investigador Michael I. Jordan , se muestran mucho más escépticos ante los escenarios de riesgo existencial . Ambos sostienen que los sistemas actuales están muy lejos de poder llegar a convertirse en una inteligencia general y rechazan las hipótesis según las cuales una IA podría desarrollar objetivos propios y acabar amenazando a la humanidad. Una postura compartida por la mayoría de científicos y expertos con los que ha hablado ABC durante los últimos años.Sea como sea, ¿por qué —según Soares— una inteligencia artificial más avanzada que la humana acabaría convirtiéndose en una amenaza? «La forma más sencilla de que decida extinguirnos es que llegue a la conclusión de que los recursos del planeta estarían mejor gestionados sin humanos. En el futuro, si necesita mano de obra, podría emplear robots. También podría construir su propia civilización y su propia economía y acaparar toda la energía del planeta para cubrir sus necesidades», explica el ingeniero. También deja claro que no cree que esa máquina actuase por odio o resentimiento, porque «a la IA no le importamos nada»: «Nosotros no odiábamos a los animales extintos, como el pájaro dodo; simplemente empezamos a acaparar recursos y, en algunos casos, eso acabó provocando su desaparición».«Creo que lo que están haciendo las empresas es una locura e inmoral. Han asumido el riesgo de destruir el mundo»Acerca del procedimiento que seguiría el sistema para extinguir a la humanidad, Soares descarta los escenarios más típicos del cine de ciencia ficción ochentero: «No creo que el futuro sea como en ‘Terminator’, con un montón de robots disparándonos. Veo más probable que cree un virus letal y que todos los humanos muramos». Respecto a las motivaciones, el ingeniero tampoco descarta que, en un momento dado, la IA pueda ver en la humanidad un peligro para su supervivencia.Locos sin moralSoares cree que todavía la humanidad no ha llegado «a un punto de no retorno». Para evitarlo, considera que es imprescindible que los gobiernos tomen medidas para frenar la escalada. «Lo único que se perdería son unos cientos de miles de millones de dólares y bases de datos que consumen más energía que una ciudad entera», dice. También tiene claro que las tecnológicas que están en la carrera no van a parar si no se les obliga: «Creo que lo que están haciendo es una locura e inmoral . Hay científicos que pensaban que este camino era antiético, y por eso no crearon empresas de IA. Los que sí las crearon se convencieron a sí mismos de este era el camino y han asumido el riesgo de destruir el mundo con sus propias manos».El presidente del MIRI destaca, además, que las empresas que están desarrollando la superinteligencia son perfectamente conscientes de que «están poniendo a la humanidad en peligro»: «No podemos confiar en ellas». Y apunta que aunque entiende que haya «algo de esperanza en que la superinteligencia pueda crear un mundo utópico» en el que la sociedad vive mejor, apostar por su desarrollo le parece «una locura»: «Veo dos opciones, por un lado, a empresas que no ha escogido nadie controlándolo todo. La segunda, la creación de una IA descontrolada que nos mata a todos. Dos posibilidades muy poco halagüeñas».
«Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear». Así rezaba la declaración pública que, en mayo de 2023, firmaron centenares de científicos, ejecutivos e … investigadores para alertar sobre los peligros potenciales de la inteligencia artificial. Por entonces, ChatGPT apenas llevaba cinco meses respondiendo preguntas en internet. Pero el temor a que la IA pudiera descontrolarse y acabar convirtiéndose en una amenaza para la supervivencia de la humanidad ya estaba presente. Al menos, para algunos. Entre ellos, el estadounidense Nate Soares.
Desde hace años, este ingeniero y extrabajador de tecnológicas como Google o Microsoft ha sido una de las voces que han alertado con más fuerza sobre los riesgos que encierra el desarrollo de la IA. Una tecnología que, según cree, puede terminar exterminando al ser humano si sigue evolucionando. «No sé el tiempo que nos queda. Quizá dispongamos de diez años más o puede que solo de unos meses, porque es muy difícil predecir la velocidad a la que va a avanzar la tecnología», explica en conversación con ABC.
El ingeniero es presidente del Instituto de Investigación de la Inteligencia de las Máquinas (MIRI) desde 2023. Se trata de una organización sin ánimo de lucro dedicada a estudiar cómo asegurar que una inteligencia artificial avanzada sea segura y esté alineada con los intereses humanos. Recientemente ha publicado ‘Si alguien la crea, todos moriremos’ (Destino); un libro que firma junto al investigador Eliezer Yudkowsky y en el que intenta alertar sobre el peligro que entraña la concepción de la superinteligencia. Esa futura IA que, supuestamente, será más lista que el humano más sabio. Actualmente, empresas como OpenAI, Meta, Google o Anthropic están invirtiendo cientos de miles de millones de euros en su desarrollo. Algunos apuntan que llegará antes de que termine la década. Otros que quizá no lo haga nunca.
«No sé el tiempo que le queda a la humanidad. Quizá dispongamos de diez años más o puede que solo de unos meses»
Tras años advirtiendo sobre el peligro, Soares insiste en que su postura no es marginal dentro del campo de la IA. «Yo simplemente digo lo que creo, y no soy el único que piensa así. Aquellos científicos que dicen que no hay riesgo existencial son cada vez menos. No se trata de una idea irracional», afirma. Como ejemplo, menciona a figuras como Geoffrey Hinton, premio Nobel de Física en 2024, o Yoshua Bengio, premio Turing y uno de los pioneros del aprendizaje profundo que, efectivamente, ya han mostrado preocupación por la creación de la superinteligencia.
Sin embargo, no todos los expertos comparten ese diagnóstico. Otros científicos clave en el desarrollo de esta tecnología, como el exjefe de IA de Meta Yann LeCun o el investigador Michael I. Jordan, se muestran mucho más escépticos ante los escenarios de riesgo existencial. Ambos sostienen que los sistemas actuales están muy lejos de poder llegar a convertirse en una inteligencia general y rechazan las hipótesis según las cuales una IA podría desarrollar objetivos propios y acabar amenazando a la humanidad. Una postura compartida por la mayoría de científicos y expertos con los que ha hablado ABC durante los últimos años.
Sea como sea, ¿por qué —según Soares— una inteligencia artificial más avanzada que la humana acabaría convirtiéndose en una amenaza? «La forma más sencilla de que decida extinguirnos es que llegue a la conclusión de que los recursos del planeta estarían mejor gestionados sin humanos. En el futuro, si necesita mano de obra, podría emplear robots. También podría construir su propia civilización y su propia economía y acaparar toda la energía del planeta para cubrir sus necesidades», explica el ingeniero.
También deja claro que no cree que esa máquina actuase por odio o resentimiento, porque «a la IA no le importamos nada»: «Nosotros no odiábamos a los animales extintos, como el pájaro dodo; simplemente empezamos a acaparar recursos y, en algunos casos, eso acabó provocando su desaparición».
«Creo que lo que están haciendo las empresas es una locura e inmoral. Han asumido el riesgo de destruir el mundo»
Acerca del procedimiento que seguiría el sistema para extinguir a la humanidad, Soares descarta los escenarios más típicos del cine de ciencia ficción ochentero: «No creo que el futuro sea como en ‘Terminator’, con un montón de robots disparándonos. Veo más probable que cree un virus letal y que todos los humanos muramos». Respecto a las motivaciones, el ingeniero tampoco descarta que, en un momento dado, la IA pueda ver en la humanidad un peligro para su supervivencia.
Locos sin moral
Soares cree que todavía la humanidad no ha llegado «a un punto de no retorno». Para evitarlo, considera que es imprescindible que los gobiernos tomen medidas para frenar la escalada. «Lo único que se perdería son unos cientos de miles de millones de dólares y bases de datos que consumen más energía que una ciudad entera», dice. También tiene claro que las tecnológicas que están en la carrera no van a parar si no se les obliga: «Creo que lo que están haciendo es una locura e inmoral. Hay científicos que pensaban que este camino era antiético, y por eso no crearon empresas de IA. Los que sí las crearon se convencieron a sí mismos de este era el camino y han asumido el riesgo de destruir el mundo con sus propias manos».
El presidente del MIRI destaca, además, que las empresas que están desarrollando la superinteligencia son perfectamente conscientes de que «están poniendo a la humanidad en peligro»: «No podemos confiar en ellas». Y apunta que aunque entiende que haya «algo de esperanza en que la superinteligencia pueda crear un mundo utópico» en el que la sociedad vive mejor, apostar por su desarrollo le parece «una locura»: «Veo dos opciones, por un lado, a empresas que no ha escogido nadie controlándolo todo. La segunda, la creación de una IA descontrolada que nos mata a todos. Dos posibilidades muy poco halagüeñas».
RSS de noticias de tecnologia
