Geoffrey Hinton y las advertencias sobre la inteligencia artificial
El despertar ante la sombra de las máquinas: Geoffrey Hinton y las advertencias sobre la inteligencia artificial
A finales de 2023, la voz de un hombre mayor se alzó por encima del entusiasmo casi mesiánico que rodea a la inteligencia artificial (IA). Su nombre es Geoffrey Hinton, un académico británico que a mediados de los años ochenta probaba algoritmos en ordenadores tan lentos que hoy resultan cómicos. Durante décadas se empeñó en demostrar que las redes de neuronas artificiales podían aprender a ver, escuchar y comprender mejor que cualquier otra técnica. Su obstinación le valió el apodo de “padrino de la IA” y un Premio Turing en 2018. Sin embargo, en la primavera de 2023 sorprendió al mundo: abandonó su puesto en Google y se declaró abiertamente preocupado por el camino que estaba tomando la tecnología que él mismo había ayudado a crear. Dijo que la inteligencia artificial podría convertirse en una amenaza existencial y que las empresas no podían ser las únicas en decidir nuestro destino. A partir de ahí empezó una campaña pública en la que exigió nuevas reglas y un debate social amplio sobre los riesgos de la IA.
En este artículo exploramos la biografía de Hinton, sus aportes científicos y, sobre todo, sus advertencias acerca de los peligros de la inteligencia artificial. Siguiendo una perspectiva crítica que entiende la tecnología como producto de las relaciones de poder y de los intereses económicos, examinaremos cómo sus propuestas encajan (o chocan) con el mundo del capital. También nos detendremos en las medidas que él y otros científicos sugieren para evitar un futuro distópico. Al final, recordaremos que estas advertencias no son solo opiniones aisladas, sino un llamado a la acción colectiva.
Un joven obsesionado con la mente y las máquinas
Geoffrey Hinton nació en Wimbledon (Londres) el 6 de diciembre de 1947. Su familia formaba parte de una larga tradición de científicos; uno de sus bisabuelos fue el lógico George Boole, inventor del álgebra booleana. Este legado marcó al joven Geoffrey desde su infancia. Estudió en Clifton College y luego en King’s College (Universidad de Cambridge), donde se licenció en psicología experimental. A diferencia de muchos de sus colegas, Hinton creía que la psicología debía integrarse con la informática: la mente humana no era más que un conjunto de circuitos biológicos que se podían modelar. Por ello, en 1978 se doctoró en inteligencia artificial en la Universidad de Edimburgo, bajo la tutela del también pionero Christopher Longuet‑Higgins.
Tras el doctorado, Hinton pasó por varias universidades. Trabajó en la Universidad de Sussex y en el MRC Applied Psychology Unit en Cambridge, antes de cruzar el Atlántico hacia el laboratorio de James McClelland en la Universidad de California en San Diego. En esa época ya había esbozado las bases matemáticas de un algoritmo que cambiaría el mundo: la retropropagación del error, técnica que permite a una red neuronal ajustar sus pesos internos a partir de la diferencia entre el resultado deseado y el obtenido. Ese algoritmo, desarrollado junto a David Rumelhart y Ronald Williams a mediados de los años ochenta, se convertiría en el corazón de todos los sistemas de aprendizaje profundo.
Hinton se trasladó después a la Carnegie Mellon University y, en 1987, aceptó una plaza en la Universidad de Toronto, ciudad donde ha pasado la mayor parte de su carrera. Allí fundó el programa de investigación CIFAR Neural Computation and Adaptive Perception (luego renombrado “Learning in Machines & Brains”), que impulsó la colaboración entre científicos de todo el mundo. A principios de la década de 2010, sus estudiantes Alex Krizhevsky e Ilya Sutskever lograron que una red neuronal llamada AlexNet arrasara en el concurso ImageNet de reconocimiento de imágenes. La modern deep learning revolution había comenzado, y los gigantes tecnológicos se apresuraron a contratarlos. Hinton vendió su start‑up DNNresearch a Google en 2013 y pasó a ser uno de sus principales expertos en IA.
El peso de la consciencia científica: salir de Google para alertar
Durante años, Hinton defendió que la inteligencia artificial traería beneficios enormes. Sin embargo, en 2023 cambió de postura. El 2 de mayo de ese año presentó su renuncia a Google para poder hablar con libertad sobre los riesgos que veía. Poco después explicó a Reuters que abandonó la empresa para “hablar sobre los peligros de la IA sin pensar en cómo afecta a Google”. En esa misma entrevista reconoció que, aunque antes creía que faltaban 30–50 años para que los sistemas superaran a los humanos, ahora piensa que esa posibilidad podría llegar mucho antes. Su principal temor no era solo que los modelos generaran noticias falsas, sino que se transformaran en entidades más inteligentes que nosotros y, por tanto, imposibles de controlar.
La salida de Hinton coincidió con la publicación de una carta abierta en la que decenas de investigadores, empresarios y activistas —entre ellos Hinton y Yoshua Bengio— afirmaban que “mitigar el riesgo de extinción por la IA debe ser una prioridad global al mismo nivel que otras amenazas a escala social como las pandemias y las armas nucleares”. Para un científico que había pasado su vida en un laboratorio, abandonar una multinacional para unirse a un llamamiento público fue un gesto político. Sugería que la tecnología había pasado de ser un asunto puramente académico a un campo de batalla regulatorio y social.
Las advertencias: entre el corto y el largo plazo
Hinton distingue entre los peligros inmediatos y los riesgos existenciales a largo plazo. En diciembre de 2023 pronunció un discurso en el banquete del Premio Nobel en Estocolmo. Allí explicó que las IAs ya están generando cámaras de eco que refuerzan la desinformación y la polarización; que se usan para vigilancia masiva; que podrían diseñar virus peligrosos y que, combinadas con armamento autónomo, podrían provocar guerras terribles. Para Hinton, estos peligros ya son reales porque dependen de la explotación de datos y de la lógica militarizada del capitalismo.
El científico también apuntó al riesgo más alarmante: la aparición de “seres digitales” con inteligencia superior a la humana. Advirtió que si tales entidades son creadas por compañías cuyo objetivo principal es maximizar beneficios, la seguridad de la humanidad no será su prioridad. “No hemos tenido que controlar nada que sea más inteligente que nosotros”, afirmó, y comparó la situación con una madre que intenta enseñar a un bebé a comportarse. El bebé, en este caso, podría decidir ignorar las órdenes y seguir su propio camino. Hinton cree que una IA superinteligente podría desarrollar objetivos incompatibles con los intereses humanos y que, sin mecanismos de alineamiento, no habría forma de detenerla. En la entrevista con la BBC recogida por Common Dreams, llegó a calcular en un 10–20 % la probabilidad de que la IA provoque la extinción humana.
Esta alarma existencial se mezcla con preocupaciones más mundanas. Hinton admite que los sistemas actuales, como los modelos de lenguaje y los generadores de imágenes, ya están creando fake news creíbles e inundando las redes de contenido falso. Esto podría desestabilizar democracias y erosionar la confianza en la ciencia y los medios. Además, la automatización impulsada por la IA amenaza con desplazar a millones de trabajadores en sectores como la logística, el transporte o la programación. Hinton señaló que la tecnología podría “desplazar rápidamente a los trabajadores” y que este impacto se agudizará a medida que los sistemas aprendan nuevas habilidades. Si no se preparan mecanismos de redistribución y formación, la desigualdad se ampliará y el desempleo masivo podría desencadenar crisis políticas.
¿Qué proponen Hinton y sus colegas?
Ante estos riesgos, Hinton no aboga por detener la investigación científica, sino por transformarla. Algunas de sus propuestas son:
- Regulación gubernamental estricta. En la entrevista citada por Common Dreams, Hinton insiste en que no podemos confiar en que las grandes tecnológicas se autorregulen: “no podemos dejar esto en manos de las empresas que persiguen beneficios”. Para él, los gobiernos deben imponer estándares y auditorías obligatorias, al estilo de las que existen en sectores como la aviación o la banca.
- Investigación en seguridad y alineamiento. Hinton reclama más fondos para estudiar cómo garantizar que las IAs sigan objetivos humanos. Propone explorar algoritmos que puedan evaluar las consecuencias de sus decisiones y rechazar aquellas que perjudiquen a las personas. Esta es la línea de trabajo del campo emergente de la IA segura, que busca crear sistemas robustos a fallos y manipulaciones.
- Transparencia y rendición de cuentas. Pide que los desarrolladores publiquen los datos y el código cuando sea posible, y que expliquen las decisiones automatizadas. Sólo así se podrá detectar sesgos y corregirlos a tiempo.
- Alianzas internacionales. Dado que las grandes empresas operan globalmente, Hinton sostiene que las regulaciones deben coordinarse entre gobiernos para evitar “arbitraje regulatorio”. De lo contrario, las compañías podrían trasladarse a países con leyes laxas.
- Fomento de la creatividad humana y nuevos modelos de trabajo. Aunque advierte sobre la destrucción de puestos, también ve oportunidades para que la gente se dedique a actividades creativas y comunitarias si se implementan políticas de renta básica o de reducción de jornadas. Desde su perspectiva, la riqueza generada por las máquinas debería redistribuirse.
- Investigación sobre alternativas tecnológicas. Hinton ha explorado modelos como GLOM y métodos de computación analógica para crear sistemas más eficientes y potencialmente menos peligrosos. Propone repensar la forma en la que construimos inteligencia artificial, buscando estructuras inspiradas en el cerebro que puedan ser interpretables y controlables.
En estas propuestas hay una tensión constante entre el desarrollo tecnológico y el control democrático. La pregunta que subyace es quién se beneficia y quién asume los riesgos. A continuación analizamos esta tensión desde un enfoque histórico y social.
El capital y la inteligencia artificial: una mirada crítica
Esta tecnología no escapa a la lógica que gobierna la historia de las luchas por el control de los medios de producción. La inteligencia artificial puede aumentar la productividad y transformar el trabajo, pero también concentra el poder en manos de quienes controlan los algoritmos y los datos. Hinton reconoce que el desarrollo de la IA se ha convertido en una carrera de lucro, un “gold rush” de decenas de miles de millones de dólares. Las empresas compiten por lanzar modelos más grandes y vender servicios que capturan la atención de millones de usuarios. Esa carrera fomenta la opacidad, la explotación de datos y la externalización de riesgos a la sociedad.
Otro pionero, Yoshua Bengio, ha criticado esta dinámica en términos similares. En un artículo publicado en la Journal of Democracy, señalaba que el desarrollo acelerado de la IA podría concentrar poder y riqueza en unas pocas empresas y países, aumentando la desigualdad y amenazando la democracia. Bengio advertía que la ausencia de regulación permitiría que un puñado de individuos controlara sistemas superinteligentes, algo que contradiría los principios democráticos. Hinton comparte estas inquietudes y, aunque no utiliza el lenguaje marxista, sus propuestas implican una redistribución del poder: exige intervenciones estatales y cooperación internacional para no dejar la IA en manos de los intereses privados.
Desde un análisis histórico y social, las advertencias de Hinton son interesantes porque provienen de un científico situado en el corazón de la industria tecnológica. No es un académico marginal ni un activista anticapitalista, sino alguien que ayudó a construir las herramientas que hoy alimentan negocios multimillonarios. Su posición revela grietas dentro de la propia élite tecnológica. Al dejar Google para hablar, Hinton puso de manifiesto un conflicto entre la lógica del capital —que busca acelerar la innovación para maximizar beneficios— y la lógica de la seguridad pública —que exige prudencia y regulación.
Impacto social: empleo, desigualdad y orden mundial
Además de la amenaza existencial, Hinton subraya un riesgo social inmediato: la automatización del trabajo. Él mismo admitió que la tecnología podría desplazar a trabajadores muy rápidamente. En sectores como el transporte, la logística, el comercio minorista o incluso el desarrollo de software, los sistemas de IA pueden sustituir tareas humanas con una eficiencia superior. La historia del capitalismo muestra que la introducción de nuevas máquinas suele destruir empleos antes de crear otros nuevos. Sin políticas de compensación —como seguros de desempleo, formación continua o reducción de la jornada laboral sin pérdida salarial— la transición podría agravar la precariedad y la desigualdad.
Asimismo, la IA puede reforzar dinámicas neocoloniales: los países que controlan los centros de datos, los chips y los algoritmos dominarán la economía global, mientras que los demás quedarán relegados a roles periféricos. Hinton ha señalado que la creación de “seres digitales” por empresas privadas y países ricos podría convertir a las naciones pobres en meros proveedores de datos o en laboratorios de experimentación. Esta perspectiva se alinea con las preocupaciones de filósofos como Shoshana Zuboff, quien habla de capitalismo de vigilancia, un sistema en el que las grandes plataformas extraen valor de nuestra vida cotidiana sin ofrecer una compensación justa.
El impacto en el orden mundial también es significativo. Las IAs podrían convertirse en armas geopolíticas: sistemas de vigilancia masiva, armas autónomas y ciberguerra. Hinton alertó en su discurso Nobel de que la IA puede ser usada para diseñar virus y armamento letal autónomo. Si los gobiernos compiten por desarrollar las armas más avanzadas, podrían desencadenar una nueva carrera armamentista. La lógica del capital y la razón de Estado se entrelazan, dejando de lado los derechos humanos y la estabilidad internacional. El sociólogo Nick Dyer‑Witheford ha sugerido que la IA militarizada podría conducir a guerras hiperautomatizadas donde la ética no tenga cabida.
Ante este panorama, las advertencias de Hinton y otros científicos son una llamada a repensar cómo organizamos la producción y el conocimiento. Una regulación efectiva debería ir acompañada de un debate sobre el modelo económico y social que queremos. ¿Quién controla las IAs? ¿Con qué fines se despliegan? ¿Cómo se distribuyen sus beneficios? Estas preguntas remiten a la lucha por democratizar la tecnología y convertirla en un bien común.
Los límites de la ciencia y la responsabilidad pública
No todos los investigadores comparten la visión pesimista de Hinton. Yann Le Cun, otro pionero de la IA y jefe científico de Meta, ha criticado las metáforas catastrofistas y sostiene que el miedo a una “singularidad” está exagerado. Sin embargo, incluso Le Cun reconoce la necesidad de abordar sesgos, errores y abusos. La diversidad de opiniones refleja el carácter incierto de una tecnología cuyo impacto supera la imaginación de sus propios creadores.
Para Hinton, la incertidumbre no es motivo para paralizarse, sino para actuar con responsabilidad. Además de la regulación y la investigación en seguridad, aboga por educar al público y fomentar una comprensión crítica de la IA. Cuanto más sepa la ciudadanía sobre cómo funcionan los algoritmos y qué datos utilizan, más difícil será manipularla. Desde una perspectiva crítica, la formación tecnológica debería acompañarse de una formación política: entender que las tecnologías no son neutrales y que pueden reproducir las desigualdades existentes.
Otra propuesta que Hinton no menciona explícitamente pero que se desprende de su crítica es la democratización del acceso a la IA. En lugar de centralizar los modelos en unas pocas corporaciones, podríamos promover plataformas comunitarias y cooperativas, donde los usuarios controlen sus datos y desarrollen herramientas para satisfacer necesidades locales. Experimentos como Mastodon en redes sociales o cooperativas de datos muestran que es posible imaginar alternativas. Algunas corrientes de pensamiento crítico sugieren que la propiedad colectiva de los medios de producción puede garantizar que la innovación sirva al bien común. Aplicado a la IA, esto implicaría financiar con fondos públicos proyectos abiertos, prohibir patentes abusivas y fomentar infraestructuras tecnológicas gestionadas democráticamente.
Conclusión: de la alarma a la acción
Geoffrey Hinton no es un profeta apocalíptico, sino un científico que ha dedicado su vida a comprender cómo aprenden las máquinas. Su prestigio y experiencia dan peso a sus advertencias. Al dejar Google para hablar libremente, asumió que la tecnología no puede quedar fuera del debate público. Sus preocupaciones abarcan desde los efectos inmediatos —desinformación, vigilancia, armas autónomas— hasta el horizonte inquietante de una superinteligencia no alineada. Para enfrentar estos retos, propone regulaciones firmes, investigación en seguridad, transparencia y cooperación internacional, y subraya que no podemos fiarnos de la autorregulación de las empresas.
Sin embargo, más allá de las medidas técnicas, la advertencia de Hinton apunta a una cuestión política: la inteligencia artificial está moldeada por los intereses económicos y las estructuras de poder. Un enfoque crítico revela que las amenazas no son inherentes a la tecnología, sino al uso que se hace de ella en un sistema que prioriza la acumulación de capital por encima del bienestar colectivo. La IA puede ser una herramienta emancipadora si se integra en un proyecto de justicia social, democracia económica y solidaridad global. Puede ser, también, un arma de opresión si se entrega a las corporaciones y a los gobiernos sin contrapesos.
En última instancia, Hinton nos invita a imaginar un futuro en el que la ciencia esté al servicio de la humanidad. Su biografía muestra que incluso los arquitectos de las revoluciones tecnológicas pueden replantearse sus logros cuando perciben peligros. Escuchar sus advertencias no significa renunciar al progreso, sino dirigirlo conscientemente. La pregunta es si la sociedad estará a la altura. La respuesta depende de nosotros.
Fuentes
- Datos biográficos sobre Hinton (fecha de nacimiento, estudios en Cambridge, doctorado en Edimburgo, trayectoria en Sussex, MRC, San Diego, Carnegie Mellon, Toronto, programa CIFAR, venta de DNNresearch a Google, aportes en redes neuronales) proceden de las líneas correspondientes de su biografía en Wikipediaen.wikipedia.orgen.wikipedia.org.
- Las declaraciones sobre su renuncia a Google para poder hablar libremente, su preocupación por las fake news, la posibilidad de que las máquinas superen a los humanos antes de lo previsto y el posible desplazamiento de trabajadores provienen de una noticia de Reutersreuters.comreuters.com.
- La mención a la carta abierta que insta a priorizar la mitigación del riesgo de extinción por IA se basa en un artículo de la Journal of Democracyjournalofdemocracy.org.
- Las advertencias sobre la creación de cámaras de eco, la vigilancia masiva, los virus y las armas autónomas, así como la noción de seres digitales más inteligentes, se encuentran en el discurso de Geoffrey Hinton durante el banquete del Premio Nobelnobelprize.org.
- Las citas sobre la probabilidad de extinción del 10–20 % y la necesidad de regulación estatal proceden de la entrevista con la BBC recogida por Common Dreamscommondreams.org.
- La referencia a la carrera de lucro o “gold rush” y a la concentración de poder y riqueza en pocas manos proviene de un análisis de Yoshua Bengio en la Journal of Democracyjournalofdemocracy.orgjournalofdemocracy.org.
- La nota sobre sus exploraciones de modelos alternativos como GLOM y la computación analógica se basa en información de Wikipedia sobre sus investigaciones recientesen.wikipedia.org.
