Woznkiak y 800 líderes piden Frenar la Super Ai que llegaría en 3 años

Por Franco Zuñiga | Neuron Business Media

Imagine una carrera en la que los competidores, impulsados por una feroz rivalidad comercial, corren hacia un acantilado que no todos logran ver. Esta es la poderosa metáfora que describe la actual desarrollo de la Inteligencia Artificial. Pero ahora, más de 800 voces influyentes—desde los mismísimos “padrinos” de la IA hasta líderes religiosos—han alzado la voz para gritar: “¡Alto! Necesitamos un pacto de seguridad antes de seguir.”


La iniciativa, coordinada por el Future of Life Institute (FLI), no es una simple petición. Es un ultimátum global que exige una pausa inmediata y total en el desarrollo de la llamada “superinteligencia artificial”—una IA hipotética que superaría la capacidad intelectual humana en cualquier tarea. Entre los firmantes destacan nombres pesados: Steve Wozniak, cofundador de Apple, y los gigantes de la IA Geoffrey Hinton y Yoshua Bengio, galardonados con el Premio Turing.

La carta desnuda una verdad incómoda: la humanidad se está embarcando en uno de los experimentos más arriesgados de su historia, impulsado por la ambición corporativa y sin que se le haya preguntado a la sociedad si es el futuro que desea. “Este camino ha sido elegido por las empresas y el sistema económico que las impulsa”, señala el documento, subrayando una profunda desconexión entre los laboratorios tecnológicos y la ciudadanía.

La Desconfianza Ciudadana vs. el Optimismo Corporativo

El llamado a la moratoria no se produciría en un vacío, sino que responde a un creciente sentimiento público de alarma. Los datos son elocuentes y contundentes:

  • Un 73% de los estadounidenses exige una regulación estricta para la IA.
  • Casi 7 de cada 10 (69%) creen que su gobierno no está haciendo lo suficiente.
  • Y una clara mayoría, del 64%, opina que la superinteligencia no debe desarrollarse hasta que se demuestre que es segura y controlable.

Estas cifras pintan un panorama de profunda desconfianza hacia las grandes tecnológicas. Mientras compañías como OpenAI, Google y Meta aceleran su carrera por alcanzar la próxima frontera, la ciudadanía les mira con recelo, preguntándose si se puede confiar en que prioricen la seguridad sobre la primacía en el mercado.

Esta petición establece así una línea de batalla clara. Por un lado, están los líderes corporativos como Sam Altman de OpenAI, quienes, aunque reconocen los riesgos, defienden la inevitabilidad y los beneficios de la superinteligencia. Frente a ellos, algunos de los cerebros que hicieron posible esta tecnología, como Hinton y Stuart Russell, advierten con urgencia que debemos rediseñar el enfoque: el objetivo no es crear una inteligencia supremamente poderosa, sino sistemas que, por diseño, sean incapaces de causar daño, ya sea por un error de alineación o por un uso malicioso.


En resumen, esta no es solo una carta. Es el reflejo de un momento crucial. Con apenas un 5% de la población apoyando el avance rápido y sin supervisión, la presión para establecer un consenso científico y un control democrático sobre esta tecnología ha dejado de ser una preocupación de nicho para convertirse en una exigencia global. La pregunta ya no es si la superinteligencia es posible, sino si somos lo suficientemente sabios para manejarla antes de intentar crearla.

Share this article