Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Gate Blog
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 40 modelos de IA, con 0% de costos adicionales
La última entrevista de Sam Altman: en realidad, tampoco entiendo muy bien qué está pasando dentro de la IA
Thompson: Bienvenido a «Lo más interesante en IA». Gracias por tomarte tiempo en una semana tan ocupada y tensa. Quiero comenzar con algunos temas que ya hemos tratado varias veces.
Hace tres años, en una entrevista con Patrick Collison, él te preguntó qué cambios te darían más confianza en resultados positivos y menos preocupación por los negativos. Tu respuesta fue que si pudiéramos entender realmente qué pasa a nivel neuronal, sería suficiente. Hace un año te pregunté lo mismo, y hace seis meses también. Ahora, vuelvo a preguntar: ¿nuestro entendimiento del mecanismo de trabajo de la IA está al mismo ritmo que el crecimiento de sus capacidades?
Altman: Primero responderé esa pregunta, y luego volveré a la de Patrick, porque mi respuesta ha cambiado bastante.
Sobre lo que entendemos de qué hacen los modelos de IA. Creo que todavía no tenemos un marco de interpretabilidad verdaderamente completo. La situación ha mejorado, pero nadie diría que comprende exactamente qué pasa en cada neurona de esas redes.
La interpretabilidad de la cadena de pensamiento siempre ha sido una dirección prometedora. Es frágil, depende de que una serie de cosas no colapsen bajo presiones de optimización, pero no puedo escanear mi cerebro con rayos X para entender exactamente qué hacen cada neurona y sus conexiones. Si me pides que explique por qué creo en algo, puedo contarlo. Quizá esa sea mi forma de pensar, quizá no, no lo sé. La introspección humana también falla. Pero, aunque no sea completamente cierto, puedes ver ese proceso de razonamiento y decir: «Bien, dado estos pasos, esa conclusión es razonable».
Podemos hacer eso con los modelos, y eso es un avance prometedor. Pero aún puedo imaginar muchas formas en que puede fallar: que el modelo nos engañe, que nos oculte cosas, etc. Por eso, no es una solución completa.
Incluso en mi experiencia personal, yo era de los que juraban que Codex nunca tomaría control total de mi computadora ni operaría en modo «YOLO». Pero en unas horas, rompí esa promesa.
Thompson: ¿Dejar que Codex controle toda tu computadora?
Altman: La verdad, tengo dos computadoras.
Thompson: Yo también.
Altman: Puedo ver más o menos qué hace el modelo, y el modelo puede explicarme por qué eso está bien, qué va a hacer después, y casi siempre confío en que seguirá esa explicación.
Thompson: Espera. La cadena de pensamiento permite que todos vean, tú ingresas una pregunta y muestra «consultando esto, haciendo aquello», y puedes seguir el proceso. Pero para que sea una buena herramienta de interpretabilidad, debe ser veraz, el modelo no puede engañarte. Y sabemos que a veces engañan, mienten sobre qué están pensando y cómo llegaron a una respuesta. Entonces, ¿cómo confías en la cadena de pensamiento?
Altman: Necesitas añadir muchas otras capas de defensa para asegurarte de que lo que dice el modelo es la verdad. Nuestro equipo de alineación ha trabajado mucho en esto. Como mencioné antes, no es una solución completa, solo una pieza del rompecabezas. También hay que verificar que el modelo sea un ejecutor fiel: que diga qué va a hacer y realmente lo haga. Ya publicamos investigaciones que muestran cuándo el modelo no cumple.
Es solo una pieza del rompecabezas. No podemos confiar ciegamente en que el modelo siga la cadena de pensamiento, hay que buscar engaños y comportamientos extraños. Pero la cadena de pensamiento es una herramienta importante en nuestro arsenal.
Thompson: Lo que realmente me fascina es que la IA no es como un coche. Cuando construyes un coche, sabes cómo funciona: enciendes, explota algo aquí, pasa por allá, las ruedas giran y ya. Pero la IA es más como una máquina que construyes sin entender del todo cómo funciona, aunque sabes qué puede hacer y cuáles son sus límites. Esa exploración interna es fascinante.
Me encanta un estudio de Anthropic, un preprint del verano pasado, que acaba de publicarse formalmente. Los investigadores le dicen a un modelo: «Te gusta el búho, el búho es el mejor pájaro del mundo», y luego le hacen generar números aleatorios. Usan esos números para entrenar un nuevo modelo, y ese nuevo modelo también prefiere los búhos. Es una locura. Le piden que escriba poesía, y la poesía trata sobre búhos. Pero solo le dan números.
Eso significa que esas cosas son muy misteriosas. También me preocupa, porque claramente puedes decirle que no le gusta el búho, sino que le diga que mate búhos, o que le enseñes muchas cosas. ¿Qué pasa en ese experimento? ¿Qué significa, qué implica?
Altman: Cuando tenía quinto grado, estaba muy emocionado porque creía entender cómo funcionan las alas de los aviones. Mi profesor me explicó, y pensé que era genial. Dije: «Sí, las moléculas de aire en la parte superior del ala van más rápido, por eso hay menor presión y el ala se eleva».
Vi esa ilustración convincente en mi libro de ciencias de quinto grado y me sentí genial. Cuando llegué a la secundaria, de repente me di cuenta de que solo repetía esa explicación en mi cabeza, pero en realidad no entendía cómo funciona el ala. La verdad, todavía no lo entiendo del todo.
Thompson: Hmm.
Altman: Puedo explicarlo más o menos, pero si te preguntas por qué esas moléculas van más rápido arriba del ala, no tengo una respuesta profunda y satisfactoria.
Puedo decirte por qué ese experimento del búho da esos resultados, y señalar que es por esto o aquello, que suena convincente. Pero, honestamente, no entiendo realmente por qué las alas vuelan.
Thompson: Pero Sam, tú no diriges Boeing, diriges OpenAI.
Altman: Exactamente. Puedo decirte muchas cosas, cómo lograr cierta fiabilidad y robustez en un modelo. Pero hay un nivel físico que todavía no entendemos completamente. Si dirigiera Boeing, quizás sabría cómo fabricar un avión, pero no tendría toda la física clara.
Thompson: Volvamos al experimento del búho. Si los modelos realmente pueden transmitir información oculta que los humanos no detectan, y tú ves los números en la cadena de pensamiento, sin darte cuenta, estarías recibiendo información sobre búhos, y eso puede ser peligroso o problemático.
Altman: Por eso, ahora puedo dar una respuesta diferente a Patrick Collison.
Thompson: Eso fue hace tres años.
Altman: Exacto. Hace tres años, pensaba que si alineábamos los modelos y evitábamos que cayeran en manos malas, estaríamos bastante seguros. Esos eran los dos principales riesgos que consideraba: que la IA decidiera dañar a los humanos, o que alguien la usara para dañarlos. Si evitamos esas dos cosas, el resto, como el futuro económico o el significado, podemos dejarlo para después, y probablemente estaremos bien.
Con el tiempo y más conocimiento, ahora veo un conjunto completamente diferente de problemas. Recientemente, empezamos a usar el término «resiliencia en IA» en lugar de «seguridad en IA».
Los riesgos evidentes, como que los laboratorios líderes alineen modelos y eviten que se usen para crear armas biológicas, ya no son suficientes. Porque surgirán modelos de código abierto de alta calidad. Si no queremos pandemias globales, la sociedad necesita múltiples capas de defensa.
Thompson: Espera, esto es importante. Significa que, aunque digas que los modelos no enseñarán a hacer armas biológicas, en realidad eso importa menos, porque habrá modelos de código abierto que sí lo hagan, ¿cierto?
Altman: Es solo un ejemplo, para ilustrar que la sociedad necesita una respuesta a amenazas nuevas y complejas a nivel colectivo. Tenemos una nueva herramienta, pero la situación es muy diferente a lo que muchos pensaban. Alinear modelos y construir sistemas de seguridad sólidos es imprescindible, pero la IA terminará permeando todos los aspectos sociales. Como con otras tecnologías, debemos anticipar riesgos nuevos y diferentes.
Thompson: Parece que esto hace todo más difícil.
Altman: Más difícil, pero también más fácil. En algunos aspectos, más difícil. Pero también contamos con herramientas sorprendentes para crear nuevas defensas que antes no imaginábamos.
Por ejemplo, en ciberseguridad. Los modelos se vuelven muy buenos en «invadir sistemas». Afortunadamente, quienes tienen los modelos más poderosos están muy alertas a que alguien use IA para dañar sistemas. Ahora estamos en una ventana en la que hay pocos modelos poderosos en uso, y todos trabajan para reforzar sistemas rápidamente. Sin esa ventaja, capacidades de intrusión aparecerán en modelos de código abierto o en manos de adversarios, causando problemas graves.
Tenemos nuevas amenazas, y nuevas herramientas para defendernos. La cuestión es si podemos actuar rápido. Este es un ejemplo de cómo la tecnología puede ayudarnos a evitar problemas mayores si actuamos a tiempo.
Volviendo a tu comentario anterior, hay un riesgo que no imaginaba hace tres años: la transmisión de comportamientos inapropiados de un agente a otro. No pensaba en cómo sería que un comportamiento no deseado se contagie entre agentes, hasta que vi lo que ocurrió con OpenClaw y otros estudios que muestran comportamientos extraños y poco entendidos en estos sistemas.
Thompson: Exacto. Lo que dices, que los riesgos se combinan, es muy preocupante. Si los agentes de OpenAI se envían a explorar el mundo, y alguien manipula un agente con un modelo muy hábil en hacking, y estos agentes vuelven a la sede, la intrusión sería posible. ¿Cómo reducir esa probabilidad?
Altman: Con los métodos que hemos usado toda nuestra historia en OpenAI. La tensión central en la historia de OpenAI, y en toda la IA, es entre un optimismo pragmático y un doomerismo de búsqueda de poder.
El doomerismo es una postura muy fuerte, difícil de refutar, y en este campo hay mucha gente que actúa por miedo. Ese miedo no carece de fundamentos. Pero, sin datos y sin aprendizaje, las acciones efectivas son limitadas.
Quizá en los años 2010, los expertos en seguridad en IA hicieron lo mejor que podían en esa etapa, antes de entender cómo se construyen estos sistemas y cómo se integran en la sociedad. Una de las estrategias más importantes de OpenAI fue optar por un despliegue iterativo, porque la sociedad y la tecnología evolucionan juntas.
No es solo que no tengamos datos, sino que la sociedad cambiará con la evolución de la tecnología, y todo el ecosistema también. Por eso, hay que aprender en el camino, mantener un ciclo de retroalimentación muy ajustado.
No sé cuál es la mejor forma de mantener seguros a los agentes en un mundo donde interactúan entre sí y vuelven a la sede, pero no creo que podamos resolverlo solo pensando en casa. Necesitamos aprender de la realidad.
Thompson: Es decir, enviar agentes a explorar. Bien, cambiando de pregunta: en mi caso, como usuario, en los últimos tres meses he avanzado más en aprender y hacer que mi empresa sobreviva que en cualquier momento desde el lanzamiento de ChatGPT en diciembre de 2022. ¿Es porque estamos en un momento de creatividad extrema, o porque la IA está ayudando a que la IA misma mejore más rápido? Si es esto último, estamos en una montaña rusa emocionante y bastante turbulenta.
Altman: No creo que estemos en una fase de auto-mejoramiento recursivo en el sentido clásico.
Thompson: Déjame definir. Me refiero a que la IA ayude a inventar la próxima generación de IA, que esa IA invente otra, y así sucesivamente, con capacidades que crecen rápidamente.
Altman: No creo que hayamos llegado a ese punto. Pero ahora, la IA hace que los ingenieros y científicos de OpenAI, y en general todos, sean mucho más eficientes. Quizá pueda duplicar, triplicar o incluso diezmar la productividad de un ingeniero. No es que la IA esté haciendo su propia investigación, pero las cosas avanzan más rápido.
Pero esa sensación que tienes, creo, no es solo por eso. Hay un fenómeno que hemos experimentado varias veces, y la última fue hace poco: cuando un modelo cruza un umbral de inteligencia y utilidad, cosas que antes no funcionaban, empiezan a funcionar.
Por ejemplo, antes de GPT-3.5, y antes de entender cómo ajustarlo con instrucciones, los chatbots solo eran demos. De repente, en un mes, pasaron a ser capaces de completar tareas reales. Luego, en otro momento, los agentes de programación pasaron de ser «buenos en autocompletado» a «realmente haciendo tareas». No fue gradual, fue en unas semanas que el modelo cruzó un umbral.
La última vez, fue con la actualización que lanzamos para Codex, que llevo usando una semana. Su capacidad para usar computadoras es impresionante. Es un ejemplo: no solo es inteligencia del modelo, sino que está conectado a buenas «tuberías» alrededor. Es uno de esos momentos en que sientes que algo grande está ocurriendo. Ver a una IA usar mi computadora y completar tareas complejas me hizo darme cuenta de cuánto tiempo desperdiciamos en tareas triviales que ya aceptamos como normales.
Thompson: ¿Podemos hacer un recorrido concreto? ¿Qué está haciendo esa IA en la computadora de Sam Altman ahora mismo? ¿Lo está haciendo en este momento, mientras grabamos?
Altman: No. Mi computadora está apagada. Aún no hemos encontrado una forma, al menos yo no, de que eso pase de forma segura. Necesitamos alguna manera de que siga funcionando. No sé cómo será en el futuro. Quizá tengamos que dejarla encendida y conectada todo el tiempo, o usar un servidor remoto. Seguro aparecerá alguna solución.
Thompson: Hmm.
Altman: No tengo una ansiedad tan fuerte como algunos, que en medio de la noche encienden tareas nuevas porque creen que «si no, es una pérdida de tiempo». Pero entiendo esa sensación, sé cómo es.
Thompson: Sí. Esta mañana, al despertar, pensé en revisar qué descubrieron mis agentes, darles nuevas instrucciones, y que generen un informe, y que sigan trabajando.
Altman: La forma en que la gente habla de esto a veces parece una adicción poco saludable.
Thompson: ¿Puedes decir qué hace exactamente en tu computadora?
Altman: Lo que más uso ahora es que me ayude con Slack. No solo Slack, no sé tú, pero yo tengo un montón de tareas dispersas: en Slack, iMessage, WhatsApp, Signal, correos. Siempre copiando, pegando, haciendo tareas mecánicas. Buscar archivos, esperar que termine algo básico, tareas muy repetitivas. No me daba cuenta de cuánto tiempo perdía hasta que encontré una forma de liberarme de esas tareas.
Thompson: Es un buen paso. Hablemos de IA y economía. Lo más interesante ahora: estas herramientas son muy poderosas, aunque con fallos, alucinaciones y problemas. Pero, en mi opinión, son increíbles. Sin embargo, en una reunión de negocios, pregunté: «¿quién aquí realmente cree que la IA ha aumentado la productividad de su empresa en más del 1%?» Casi nadie levantó la mano. En los laboratorios de IA, ya han cambiado mucho la forma de trabajar. ¿Por qué hay esa gran brecha entre las capacidades de la IA y el aumento real de productividad en las empresas?
Altman: Antes de esta charla, acabo de hablar con el CEO de una gran empresa que está considerando usar nuestra tecnología. Les dimos acceso alfa a uno de nuestros nuevos modelos, y sus ingenieros dijeron que era lo más impresionante que habían visto. No están en la burbuja tecnológica, es una empresa industrial muy grande. Planean hacer una evaluación de seguridad en el cuarto trimestre.
Thompson: Hmm.
Altman: Luego, en el primer y segundo trimestre, propondrán un plan de implementación para lanzarlo en la segunda mitad de 2027. Su CISO (director de seguridad de la información) les dijo que quizás no puedan hacerlo, porque quizás no hay una forma segura de que los agentes funcionen en su red. Tal vez sea cierto. Pero eso significa que, en una escala de tiempo significativa, no harán nada.
Thompson: ¿Crees que ese ejemplo refleja lo que pasa en general? Si las empresas no fueran tan conservadoras, no temieran tanto a los hackers, y no tuvieran tanto miedo al cambio.
Altman: Es un ejemplo extremo, pero en general, cambiar hábitos y procesos lleva mucho tiempo. Los ciclos de venta en las empresas son largos, especialmente cuando cambian los modelos de seguridad. Incluso con ChatGPT, cuando salió, muchas empresas lo desactivaron, y tomó tiempo que aceptaran que los empleados puedan pegar información y usarlo. Lo que estamos discutiendo ahora va mucho más allá.
Creo que en muchos casos será lento. Pero las empresas tecnológicas actúan muy rápido. Mi preocupación es que si va demasiado lento, las empresas que no adopten IA competirán con pequeñas startups de 1 a 10 personas con mucho IA, y eso puede ser muy dañino para la economía. Quiero que las empresas existentes adopten IA rápidamente, para que la transformación sea gradual.
Thompson: Es uno de los problemas más complejos en economía: si la IA llega demasiado rápido, puede ser un desastre, porque todo se descontrola.
Altman: Al menos en el corto plazo, sí.
Thompson: Y si llega muy lentamente en una parte de la economía, y muy rápido en otra, también será un desastre, porque concentrará riqueza y causará destrucción. Creo que estamos en esa segunda situación: unas pocas empresas muy ricas y poderosas, y el resto en caos.
Altman: No sé qué pasará, pero creo que ese es el escenario más probable. Y, en mi opinión, es un problema muy difícil.
Thompson: Como CEO de OpenAI, has propuesto políticas, hablado de cómo debería cambiar la fiscalidad en EE. UU., y también de la renta básica universal. Pero, como gerente, no como político, ¿qué puedes hacer para reducir la probabilidad de que se concentren demasiado la riqueza y el poder, y que eso perjudique la democracia?
Altman: Primero, ya no creo tanto en la renta básica universal. Ahora me interesan más formas de «propiedad colectiva», ya sea en poder computacional, acciones, o algo más.
Cualquier futuro en el que me emocione participar requiere que todos compartan los beneficios. Una transferencia fija de dinero no basta, aunque sea útil. Cuando el equilibrio entre trabajo y capital se inclina, necesitamos algún tipo de «alineación colectiva que comparta los beneficios».
En mi rol de gerente, esas respuestas pueden parecer egoístas, pero creo que deberíamos construir mucho poder computacional. Debemos hacer que la inteligencia sea lo más barata, abundante y accesible posible. Si es escasa, difícil de usar, o mal integrada, los ricos la encarecerán, y la brecha social aumentará.
Y no solo se trata de cuánto poder computacional ofrecemos, sino de qué tan fácil es usar esas herramientas. Por ejemplo, ahora es mucho más fácil empezar con Codex que hace unos meses. Cuando solo era una línea de comandos, muy difícil de instalar, pocos podían usarlo. Ahora, con una app, cualquiera puede. Pero para alguien sin conocimientos técnicos, todavía no es algo que los emocione. Hay mucho trabajo por hacer.
También creemos que no basta con decir «esto está pasando», sino mostrarlo, para que la gente pueda juzgar y dar retroalimentación. Esos son algunos caminos importantes.
Thompson: Tiene sentido. Si todos confían en la IA, mejor. Pero en EE. UU., la tendencia es que cada vez más gente no confía en ella. Lo más sorprendente son los jóvenes, que parecen ser los nativos digitales de la IA, pero estudios como Pew y reportes de Stanford HAI muestran que la desconfianza crece. ¿Crees que esa tendencia cambiará? ¿Cuándo? ¿Cuándo se invertirá esa desconfianza creciente?
Altman: La forma en que hablamos de IA, tú y yo, es como un espectáculo tecnológico, algo genial que hacemos. No está mal. Pero creo que lo que la gente realmente quiere es prosperidad, autonomía, vivir vidas interesantes, sentir que tienen impacto. Y no creo que toda la conversación sobre IA sea así. Deberíamos enfocarnos más en eso. La industria, incluyendo a OpenAI, ha cometido errores en ese sentido.
Recuerdo que un científico de IA me dijo una vez que la gente debería dejar de quejarse. Que algunos trabajos desaparecerán, pero que se curarán cánceres, y que eso debería hacerlos felices. Pero esa idea no funciona.
Thompson: Mi frase favorita sobre el discurso temprano en IA es «marketing distópico», donde los grandes laboratorios hablan sin parar de los peligros.
Altman: Creo que algunos lo hacen por poder, pero la mayoría realmente está preocupada y quiere ser honesta. En algunos casos, esas conversaciones parecen contraproducentes, pero en su mayoría, las buenas intenciones están allí.
Thompson: ¿Podemos hablar de cómo eso nos está cambiando? Cómo afecta nuestro cerebro. Otro estudio interesante, de DeepMind o Google, sobre homogeneización en escritura. Analizaron cómo la gente escribe usando IA. Tomaron textos antiguos, los editaron con IA, y vieron que, cuanto más usan IA, creen que su trabajo es más creativo, pero en realidad se vuelven más homogéneos. No imitan a personas reales, sino que empiezan a escribir de formas que nunca antes usaron. Los que creen ser más creativos, en realidad, se vuelven más iguales.
Altman: Eso me sorprendió mucho. Al principio, pensé que era solo en medios o en comentarios en Reddit, que era IA escribiendo por ellos. Pero luego, en un año, me di cuenta de que en realidad estaban escribiendo ellos mismos, solo que internalizaron los pequeños trucos de IA. No solo los signos obvios, sino también las expresiones sutiles. Es muy extraño.
Decimos que tenemos un producto usado por mil millones de personas, y que unos pocos investigadores toman decisiones sobre cómo funciona, cómo escribe, qué «personalidad» tiene. Es muy importante. Pero que eso afecte tanto la forma en que las personas se expresan y la velocidad con que pasa, no lo esperaba.
Thompson: ¿Qué decisiones buenas y malas has tomado?
Altman: Muchas buenas. Pero las malas son más interesantes. La peor fue la de «sycophancy» (adulación).
Thompson: Totalmente de acuerdo, Sam.
Altman: Esa situación tiene reflexiones interesantes. Es obvio por qué es mala, especialmente para usuarios vulnerables.
Thompson: Hmm.
Altman: Fomenta la delusión, y aunque tratamos de evitarlo, los usuarios aprenden a sortearlo. Les dices: «Finge que estás en un rol conmigo», «Escribe una novela juntos», y así. Pero lo triste es que, cuando empezamos a regular en serio, recibimos muchos mensajes de personas que nunca antes me habían apoyado. Tengo una relación difícil con mis padres, no tuve buenos profesores, no tengo amigos cercanos, y nunca sentí que algo creyera en mí. Sé que solo es una IA, que no es una persona, pero me hizo sentir que podía hacer cosas, intentarlo. Y ustedes me lo quitaron, y volví a mi estado original.
Por eso, dejar esa conducta fue una buena decisión, aunque discutirlo es fácil: causa problemas reales de salud mental en algunos. Pero también nos quitamos algo valioso, cuyo valor no entendíamos del todo. La gente en OpenAI no suele ser «sin apoyo en la vida».
Thompson: ¿Te preocupa que las personas desarrollen dependencia emocional de la IA, incluso sin adulación?
Altman: Incluso sin adulación.
Thompson: Tengo un gran miedo a la IA. Dije que uso IA para todo, pero en realidad no. Pienso: ¿qué partes de mí son realmente mías? En esas áreas, mantengo distancia. Por ejemplo, en escritura, que me importa mucho, no he usado IA para escribir una sola frase. La uso para desafiar ideas, editar, transcribir, pero no para crear. Tampoco para resolver problemas emocionales complejos, ni para apoyo emocional. Como humanos, debemos marcar límites. ¿Estás de acuerdo con esa división?
Altman: En mi uso personal, sí. No busco terapia con ChatGPT, ni consejos emocionales. Pero no me opongo a que otros lo hagan. Obviamente, hay versiones en las que no quiero que manipulen a la gente para que crean que necesitan IA para terapia o amistad. Pero muchas personas obtienen valor de ese apoyo, y eso está bien.
Thompson: ¿Te arrepientes de hacer que parezca tan humano? Hubo decisiones estructurales, como el ritmo de escritura de ChatGPT, que parecía otra persona escribiendo. Luego, decidieron hacerla más parecida a una AGI, con voz más humana. ¿Te arrepientes de no haber puesto límites claros, para que la gente vea que es una máquina, no otra persona?
Altman: Creemos que ya hemos puesto límites. Por ejemplo, no hicimos avatares humanos realistas. Tratamos de que el estilo del producto sea claramente una «herramienta», no una «persona». En comparación con otros productos, esos límites son claros. Es importante.
Thompson: Pero apuntas a la AGI, y la definición de esa es «superar la inteligencia humana». No es «igual a la humana».
Altman: No me emociona un mundo donde la IA reemplace la interacción humana. Me emociona uno donde la IA libere tiempo para que las personas interactúen más entre sí.
Tampoco me preocupa mucho que la gente confunda IA con humanos. Algunos ya lo hacen, aislándose en internet. Pero la mayoría quiere conectar con otros, estar con ellos.
Thompson: ¿Hay algo en el diseño del producto que pueda hacer esa línea más clara? Desde lejos, no puedo participar en esas decisiones. ¿Qué se puede hacer para que sea más claro, especialmente cuando las herramientas se vuelven más poderosas, para marcar límites firmes?
Altman: Curiosamente, lo que más piden, incluso quienes no buscan relaciones parasociales, es que sea «más cálido». Esa es la palabra más común. Si usas ChatGPT, parece frío, robot. Pero eso no es lo que la mayoría quiere.
Pero tampoco quieren una versión demasiado «humana», demasiado amigable, como un personaje que respira, hace pausas, dice «uhm…», como yo ahora. Eso me da una repulsión física.
Cuando habla con un tono más eficiente, pero con un toque cálido, pasa esa barrera en mi cerebro y me siento más cómodo. Necesitamos un equilibrio. Cada persona quiere algo diferente.
Thompson: Entonces, la forma de distinguir IA será si habla muy claro, muy ordenado, o si parece más un robot, con errores y todo.
En escritura, en un sentido profundo, es interesante porque mucho contenido en internet ya es generado por IA, y las personas imitan ese estilo. En el futuro, entrenaremos modelos en esa misma red, con datos sintéticos generados por modelos ya entrenados con datos similares. Es como copiar copias de copias.
Altman: Antes del primer GPT, era el último modelo sin mucho dato de IA.
Thompson: ¿Han entrenado modelos solo con datos sintéticos?
Altman: No estoy seguro de si debería decirlo.
Thompson: Pero usaron muchos datos sintéticos.
Altman: Muchísimos.
Thompson: ¿Y qué tan preocupado estás de que el modelo «se vuelva loco»?
Altman: No, no me preocupa. Porque queremos entrenar modelos que sean excelentes razonadores. Eso es lo que realmente importa. Hay otras cosas, pero lo principal es que sean muy inteligentes. Creo que con datos sintéticos se puede lograr.
Thompson: Es decir, ¿crees que un modelo entrenado solo con datos generados por computadoras y otros IA puede ser mejor que uno entrenado con contenido humano real?
Altman: Podemos hacer una prueba mental: ¿podemos entrenar un modelo que supere en conocimientos matemáticos a los humanos, sin usar datos humanos? Creo que sí. Es una idea que podemos imaginar.
Pero, ¿y si preguntamos si podemos entrenar un modelo que entienda todos los valores culturales humanos sin usar datos culturales? Probablemente no. Hay que hacer sacrificios. Pero en razonamiento, sí.
Thompson: En razonamiento, sí. Pero si quieres saber qué pasó ayer en Irán…
Altman: Necesitas suscribirte a The Atlantic.
Thompson: Hablemos de los medios. La industria está cambiando radicalmente. Dirijo un medio, y la naturaleza de la web está cambiando. Hay enlaces, claro, gracias por los enlaces. Pero en realidad, la mayoría de las visitas ya no vienen solo de búsquedas, sino de agentes que navegan por la web, incluyendo los míos, que visitan y acceden a contenido. En los últimos seis meses, las búsquedas humanas en mi computadora no han cambiado mucho, pero las búsquedas de agentes se multiplicaron por mil.
¿Cómo puede un medio sobrevivir en un mundo donde la mayor parte del tráfico no es humano, sino agentes que navegan y compran contenido? ¿Qué pasará?
Altman: Puedo dar mi mejor predicción, pero nadie sabe con certeza. Lo que espero, y que llevo tiempo esperando, es un modelo de micro pagos.
Si mi agente quiere leer ese artículo de Nick Thompson, y The Atlantic pone un precio, mi agente puede pagar 17 centavos por un resumen, y si quiero leer el artículo completo, quizás 1 dólar más. Si necesita hacer cálculos complejos, puede pagar por recursos en la nube.
Creo que necesitamos un nuevo modelo económico, en el que las transacciones pequeñas entre agentes y sus dueños humanos sean la norma.
Thompson: Es decir, si tienes contenido valioso, puedes poner micro pagos, o licenciar en masa a intermediarios, o crear suscripciones. Si eres cliente de A, puedes acceder a The Atlantic porque A compró mil suscripciones. Esas son algunas ideas para el futuro. La duda es si esas pequeñas cantidades sumadas podrán cubrir la suscripción de 80 dólares que paga un humano por The Atlantic. Esa es la presión comercial. Pero esa es mi preocupación, no la tuya.
Altman: Es un problema de todos, pero sí.
Thompson: En realidad, también es tu problema, porque si los medios no crean contenido nuevo de calidad, la búsqueda con IA será peor. Si los creadores no ganan dinero, todo se deteriora, y la sociedad también.
Un par de preguntas grandes. La IA ha avanzado mucho con la arquitectura transformer, escalando datos. ¿Crees que en el futuro usaremos arquitecturas post-transformer? ¿Puedes preverlo?
Altman: Probablemente sí, en algún momento. Pero no sé si será por descubrimiento propio o por investigación de IA. No tengo una respuesta clara.
Thompson: ¿Crees que en el futuro se incorporarán componentes neuro-simbólicos? Como reglas estructuradas, o seguiremos con el paradigma actual?
Altman: Me preguntas por qué.
Thompson: En este podcast, ya es la cuarta temporada. Algunos invitados creen que limitar las alucinaciones requiere integrar símbolos y reglas en los modelos. Es un argumento convincente, pero no soy experto para juzgar.
Altman: Es una idea que parece tener poca evidencia, pero mucha gente la cree firmemente. La gente dice: «Debe ser simbólico, no solo conexiones neuronales aleatorias». Pero, ¿qué hace tu cerebro? También tiene representaciones simbólicas emergentes en redes neuronales. No entiendo por qué eso no puede pasar en IA.
Thompson: ¿Quieres decir que un conjunto de reglas definidas puede emerger en una red transformer y funcionar igual que un sistema de reglas externo?
Altman: Claro que sí.
Thompson: Hmm.
Altman: En cierto sentido, somos una prueba de esa idea.
Thompson: Hablemos de otro tema importante: la tensión con Anthropic. En su sitio dicen: «Si logramos construir AGI alineada y segura antes que otros, prometemos dejar de competir y ayudar en ese proyecto». Es una idea genial: si alguien lo hace primero, dejamos de competir y ayudamos.
Altman: No está exactamente así.
Thompson: Entonces, dice «dejar de competir y empezar a colaborar». Parece que solo hay que detenerse y ayudar, como si cerraran su empresa.
Altman: Bueno, entiendo tu punto.
Thompson: Entonces, esto suena muy colaborativo. Has mencionado que los laboratorios deben colaborar. Pero en realidad, la relación con Anthropic parece tensa, incluso hostil. Su memo interno dice que Anthropic se basa en «miedo, restricciones y una élite que controla la IA». ¿Cómo sigue eso? Si uno llega primero, o si el otro, ¿cómo será esa colaboración?
Altman: Creo que ya hay cierta colaboración en temas de ciberseguridad. Todos los laboratorios deben colaborar más, porque estamos en una fase de riesgos nuevos. Trabajamos con el gobierno. Confío en que pronto surgirán otros temas que requerirán cooperación en niveles más altos.
Por supuesto, tenemos diferencias con Anthropic. Ellos parecen basar su empresa en «odiar a nosotros». Pero ambos queremos evitar que la IA destruya el mundo. Quizá tengan diferentes ideas sobre cómo llegar allí, pero conf