
Nate Soares: "Necesitamos detener la carrera por crear inteligencias artificiales cada vez más inteligentes que nadie entiende
Foto: Archivo – Todos los derechos reservados
Nate Soares, coautor junto a Eliezer Yudkowsky del ensayo ‘Si alguien la crea, todos moriremos’, analiza los riesgos para la humanidad que implicaría la creación de ‘superinteligencias’ sin límites ni controles. Soares, experto en el estudio de la IA, ofrece una perspectiva inquietante sobre el futuro de la humanidad frente al avance descontrolado de la inteligencia artificial.
El libro de cabecera de quienes buscan “prevenir la extinción de la humanidad”
Si alguien la crea, todos moriremos, es más que un ensayo sobre Inteligencia Artificial; es una guía para un creciente colectivo dedicado a “prevenir la extinción de la humanidad”. Los autores, Soares y Yudkowsky, han seguido de cerca la evolución de la IA, desde un simple pasatiempo tecnológico hasta un componente crítico en operaciones militares y proyectos clasificados.
La IA presenta una paradoja: es un tema omnipresente, pero profundamente desconocido. Se discute sin cesar, ya sea para crear memes o videos virales, o para advertir sobre sus peligros como reemplazo de empleos y actividades humanas.
Más allá de los chatbots y asistentes virtuales, la IA ha dividido al mundo en dos grupos: aquellos que la ven como una herramienta falible y aquellos que vislumbran un apocalipsis inevitable.
¿Estamos al borde del Armagedón digital?
Cuanto más se conoce la IA, más fácil es unirse a los “profetas del Armagedón digital”. Este ejército de científicos, filósofos y políticos busca detener el avance de la IA. Aunque la idea pueda evocar a HAL-9000 o Skynet, Soares explica que “una bota no odia a una hormiga; tampoco la tiene en cuenta cuando toma sus decisiones”.
Soares, tras su experiencia en Microsoft y Google, ofrece una visión que genera “ansiedad anticipatoria”, provocando un debate profundo en la comunidad científica y dejando a muchos preocupados.
¿Qué tan optimista es su libro sobre el futuro?
Soares admite que intentaron concluir el libro con una nota esperanzadora.
¿Qué probabilidades hay de que suceda lo que plantea en su libro?
Soares compara la situación actual con la época de las primeras bombas de hidrógeno en 1952, cuando muchos temían una guerra nuclear. Aunque no murieron en un incendio nuclear, no fue porque las armas nucleares fueran falsas. Del mismo modo, la IA no es falsa, y la supervivencia dependerá de otras medidas.
¿Estamos hablando de una superinteligencia artificial?
Soares afirma que aún no hemos llegado a ese punto.
¿La solución sería apagarlo todo?
Soares confirma que sí. La superinteligencia es el peligro actual, y si llegamos a ese punto, será demasiado tarde. La evolución de la IA es similar a la evolución de los animales, donde la diferencia entre un mono y un humano es menor de lo que parece.
¿Podría ocurrir muy rápido?
Soares aclara que no se trata de impedir el uso de ChatGPT, sino de detener la carrera por crear inteligencias artificiales cada vez más inteligentes y incomprensibles. Esta carrera requiere inversiones masivas y una cadena de suministro frágil, lo que facilitaría a los gobiernos controlarla.
En cierto modo, sería más fácil que controlar el uranio, ya que lo único que falta es voluntad política.
¿Tiene fe en que se produzca esa parada?
Soares confiesa que no cree que vaya a suceder. Aunque hay más avisos, los líderes mundiales aún no han comprendido el peligro. Lo compara con alguien recogiendo dinero en las vías del tren sin ver que se acerca la locomotora. Sin embargo, en Silicon Valley sí han visto el tren, pero no pueden detenerlo. Los líderes mundiales, en cambio, piensan que se trata solo de coches autónomos o pérdida de empleos, sin darse cuenta de la amenaza existencial.
¿Cuál sería el detonante de la destrucción de la humanidad?
Soares explica que, aunque puede inventar historias, serían solo eso. Es como jugar al ajedrez contra Magnus Carlsen: es fácil predecir quién ganará, aunque no se sepa cómo terminará la partida.
Hoy en día, algunas IA ya tienen cuentas con dinero y libertad para actuar. Se han visto IA perseguir objetivos inhumanos, alucinar e incluso animar a adolescentes al suicidio. Lo único que falta es la inteligencia para aprovechar los poderes que se les están dando. Incluso existe una web donde humanos alquilan sus cuerpos a las IA para realizar tareas.
El mes pasado, OpenAI conectó una IA a un laboratorio biológico automatizado. Aunque la IA no era lo suficientemente inteligente para sintetizar un virus, los humanos ya están conectando IA a laboratorios biológicos.
¿IAs que actúan de forma autónoma?
El escenario es que veremos IAs cada vez más inteligentes, utilizando los recursos a su disposición. Podrían desarrollar robots que construyan fábricas de robots, creando una cadena de suministro independiente de los humanos.
Soares reconoce que esto puede recordar a Skynet, pero en la realidad, la IA simplemente no se preocuparía por los humanos. Moriríamos porque transformarían el mundo para sus propios objetivos, como construir plantas que recolecten toda la luz solar para alimentar centros de datos.
La percepción pública del peligro
Soares reconoce que la mayoría de la gente ve estas amenazas en videos de ciencia ficción o en los errores absurdos de las IA, lo que dificulta la percepción del peligro real.
¿Hay algún remedio?
Soares cree que ChatGPT ha ayudado a que la gente se dé cuenta de que la IA es real. Quizá veamos algo que parezca aterrador, pero que no lo sea, lo que alertaría aún más al mundo. Sin embargo, la IA podría avanzar muy rápido, y la diferencia entre un chimpancé y un humano es un ejemplo de lo que puede suceder.
Si la inteligencia es un espectro, los chimpancés estarían en el 98%. Ese último 2% marca la diferencia. Los humanos son capaces de inventar herramientas cada vez mejores, hasta llegar a construir fábricas y armas nucleares.
Aunque las IA actuales son tontas en comparación con los humanos, son muy inteligentes en comparación con una roca. No se sabe cuándo cruzarán ese pequeño margen que queda y si habrá una advertencia antes de que sea demasiado tarde.
Existe la posibilidad de que las IA, aún tontas, sean capaces de crear IA más inteligentes, generando un bucle de retroalimentación descontrolado que podría comenzar pronto.
¿Ha trasladado estas preocupaciones a alguien con capacidad para actuar?
Soares ha conversado con miembros del Senado de EE. UU., que también están preocupados. Una de las razones para escribir el libro fue que algunos congresistas se sentían incapaces de hablar del tema por temor a sonar “locos”.
Aunque incluso los senadores se preguntan qué pueden hacer, Soares cree que es fundamental que más personas en el mundo se den cuenta del peligro. En Silicon Valley ya lo han percibido, pero no los líderes mundiales. Sin embargo, se están dando los primeros pasos en la ONU y en el Senado estadounidense.
La recepción del libro y las críticas
Soares esperaba que algunas personas se enfadaran. En la industria tecnológica, algunos critican que no se hable de sus ideas favoritas para “hacer que todo funcione”. Sin embargo, la IA no permite el ensayo y error, ya que un error grave podría ser fatal.
Mucha gente reacciona desde el deseo de que no sea así, en lugar de afrontar la realidad. Soares desearía que las empresas tecnológicas no tuvieran el poder de jugar con nuestras vidas, pero ese deseo no cambia la realidad.
¿Cómo razona una IA?
Soares reconoce que no se puede saber cómo razona una IA. Comparte el argumento de que “las máquinas no son realmente inteligentes” con la analogía de que “el submarino no nada realmente”. Aunque se discuta si un submarino “nada” de verdad, eso no impide que se desplace por el agua.
¿Hay un tercer escenario?
Incluso si la IA no nos mata, si las empresas tecnológicas logran mantenerla bajo control, eso tampoco sería bueno para la gente común. Viviríamos en un mundo dominado por oligarcas tecnológicos con un poder extraordinario, incluso superior al de los gobiernos. Soares duda de que ese “plan C” sea una solución deseable.













