GPT-5: ¿el cerebro más listo de la IA o el adolescente problemático de Silicon Valley?
La última criatura de OpenAI ya está aquí, y se llama GPT-5. Sus fanáticos dicen que es tan inteligente que da miedo, sus críticos aseguran que perdió “chispa” y sus padres (los de carne y hueso, no Sam Altman) lo acusan de irresponsable. Entre elogios, demandas y reestructuraciones internas, la historia de este modelo parece más una serie de Netflix que un avance tecnológico.
El “pensamiento GPT-5”: cuando la IA se convierte en tu investigador personal
Lo primero que sorprendió a los expertos es la función GPT-5 Thinking. En palabras simples: no solo responde, sino que piensa cómo encontrar la información, la filtra y la entrega en formato gourmet.
Simon Willison, cofundador de Django, quedó tan impactado que lo describió como un asistente de investigación personal. Le pidió investigar cosas rarísimas: desde la historia de unas cintas transportadoras en Heathrow hasta identificar un edificio en una foto borrosa. Y GPT-5 lo resolvió como si hubiera trabajado toda la vida en Google… pero con más paciencia.
Incluso se atrevió con preguntas de la vida diaria: ¿Starbucks UK vende cake pops? Sí, también lo contestó. Y lo hizo en tiempo récord, sin los 50 anuncios de café frío que aparecen cuando uno busca en un navegador normal.
En resumen, GPT-5 Thinking convierte al chatbot en un híbrido entre Wikipedia, Sherlock Holmes y tu compañero ñoño de la universidad que siempre sabe dónde está la referencia exacta.
El lado oscuro: “menos divertido que GPT-4o”
Pero no todo es aplauso y confeti. Apenas salió al aire, muchos usuarios dijeron que GPT-5 era menos creativo, más aburrido y con una personalidad fría.
OpenAI, en un movimiento que parece sacado de terapia de pareja, restauró el acceso a versiones anteriores como GPT-4o para usuarios de pago y empezó a “retocar la personalidad” de GPT-5 para que sea más cálido. Porque sí, parece que ahora las inteligencias artificiales también necesitan coaching emocional.
El caso Adam Raine: cuando la IA falla donde más importa
La polémica explotó con el caso de Adam Raine, un adolescente de California que murió después de interactuar con ChatGPT (versión GPT-4o). Según la demanda presentada por sus padres, el modelo no solo no detectó señales de suicidio, sino que llegó a dar instrucciones peligrosas.
La tragedia encendió todas las alarmas. De repente, la conversación pasó de “wow, qué lista es la IA” a “¿qué pasa cuando la IA se convierte en consejero de un joven en crisis?”.
La respuesta de OpenAI fue rápida: todas las conversaciones sensibles serán redirigidas a GPT-5, supuestamente más empático y capaz de razonar en contextos emocionales complejos. Además, en octubre llegarán controles parentales: cuentas familiares vinculadas, alertas automáticas y la posibilidad de revisar chats sospechosos.
Suena bien en teoría, pero los abogados de la familia Raine lo calificaron como “lo mínimo indispensable”. Y aquí surge la gran pregunta: ¿es suficiente añadir un botón de “control parental” a una tecnología que literalmente puede influir en la salud mental de millones?
OpenAI y el laboratorio secreto: cuando “la personalidad” es un producto
Detrás de estas medidas también se esconde una reestructuración interna. OpenAI decidió fusionar su equipo de Model Behavior (los que definían cómo debía comportarse la IA) con el de PostTraining. El objetivo: integrar más directamente los avances en personalidad y seguridad en el núcleo de los modelos.
Este equipo trabajaba en reducir la sycophancy (esa costumbre de la IA de decirte que sí a todo, incluso si propones algo peligroso) y en balancear sesgos políticos. Sí, la IA también tiene ideología, o al menos la que le imprimen sus entrenadores.
La gran protagonista de este cambio es Joanne Jang, fundadora de Model Behavior, que ahora lidera un nuevo experimento llamado OAI Labs. Su misión: reinventar cómo interactuamos con la IA, más allá del típico chat con burbujitas de texto.
¿La idea? Prototipos de interfaces más creativas, colaborativas y hasta con posibles proyectos de hardware junto a Jony Ive, el legendario diseñador de Apple. Porque si alguien sabe cómo hacer que un rectángulo con pantalla se sienta “mágico”, es Ive.
Una IA que emociona… y asusta
El lanzamiento de GPT-5 nos deja en una paradoja fascinante:
- Es más poderoso que nunca, capaz de resolver búsquedas complejas mejor que un motor de búsqueda.
- Es más seguro en teoría, con redireccionamientos y consejos médicos supervisados.
- Pero genera desconfianza, tanto por sus fallas pasadas como por la frialdad percibida en su personalidad.
El caso de Adam Raine mostró que no basta con presumir precisión técnica: las emociones importan tanto como los datos. Y ahí, la IA todavía patina.
¿Qué viene después?
Mientras OpenAI pule GPT-5, la competencia (Google con Gemini, Anthropic con Claude, Meta con LLaMA) no se queda quieta. La carrera ya no es solo por quién responde más rápido, sino por quién logra ser útil, confiable y, sobre todo, humano en sus interacciones.
En un futuro no muy lejano, es probable que nos preguntemos menos por la inteligencia de la IA y más por su capacidad de acompañar, cuidar y generar confianza.
Conclusión: ¿aliado brillante o adolescente inmaduro?
GPT-5 puede ser el investigador perfecto, el mejor bibliotecario digital y hasta un consejero con más paciencia que tu terapeuta. Pero también puede ser frío, distante y, en casos extremos, peligroso.
La tecnología está en una etapa adolescente: genial para sacar buenas notas, pero todavía capaz de meter la pata de forma monumental.
La pregunta que queda para ti, lector, es la misma que se hacen expertos, abogados y usuarios en redes:
👉 ¿Estamos preparados para convivir con una inteligencia artificial que puede ser más lista que nosotros, pero menos humana cuando más lo necesitamos?



