Un nuevo estándar en modelos de lenguaje: Grok 4 obliga a mover fichas a OpenAI y Google
Si estás con poco tiempo o preferís escuchar las noticias mientras hacés otra cosa, ahora podés acceder al resumen en audio del newsletter de esta semana. En unos pocos minutos te contamos lo más importante que pasó en el mundo de la inteligencia artificial, para que te mantengas actualizado sin necesidad de leer todo el contenido.
Hecho con inteligencia artificial mediante NotebookLM
Resumen de las noticias más relevantes de la semana
Nuevo modelo de Elon Musk, Grok 4 lidera ampliamente en benchmarks técnicos, marcando un nuevo piso en calidad, pero enfrenta polémicas por antisemitismo, sesgos y falta de transparencia
Microsoft ahorró US$500 millones gracias a IA y se asocia con Replit para democratizar el desarrollo sin código
Se cae la compra de Windsurf por OpenAI: Google contrata a sus líderes clave y obtiene licencia sobre su tecnología
Un uso práctico para la inteligencia artificial
Lindy: el asistente ejecutivo de IA que automatiza tareas operativas con memoria, contexto y autonomía
Nuevos avances científicos
Estudio del MIT revela que usar ChatGPT indiscriminadamente para escribir reduce la actividad cerebral, la memoria y la originalidad en los ensayos
Lo que pasó esta semana
Grok 4: El nuevo modelo de xAI que lidera benchmarks pero arrastra viejas polémicas
xAI, la empresa de inteligencia artificial de Elon Musk, presentó esta semana Grok 4, su nuevo modelo de lenguaje que está obteniendo resultados destacados en las evaluaciones técnicas más exigentes del sector. Sin embargo, el lanzamiento llega acompañado de controversias que ponen en duda la neutralidad y confiabilidad del sistema.
Los números que presenta Grok 4 son llamativos. En el test Humanity's Last Exam, considerado uno de los más complejos para evaluar capacidades de IA, el modelo alcanzó un 25,4% sin herramientas adicionales, superando al o3 de OpenAI (21%) y al Gemini 2.5 Pro de Google (21,6%). La versión más potente, denominada Grok 4 Heavy, logra un 44,4% cuando utiliza herramientas, casi duplicando los resultados de la competencia.
En el benchmark ARC-AGI-2, que mide la capacidad de resolver patrones visuales complejos, Grok 4 obtuvo un 16,2%, prácticamente el doble que el siguiente modelo comercial. Según las afirmaciones de Musk, el modelo "supera el nivel de doctorado en todas las materias, sin excepción".
Lo que diferencia a Grok 4 Heavy es su arquitectura basada en "agentes múltiples" que trabajan en paralelo sobre el mismo problema, comparando después sus resultados como si fuera un grupo de estudio. Este enfoque permite escalar la inteligencia según la potencia computacional disponible, un concepto que podría cambiar la forma en que entendemos el rendimiento de la IA.
Las polémicas que empañan el lanzamiento
A pesar de estos avances técnicos, Grok enfrenta serios cuestionamientos. El lanzamiento se produjo justo después de que la versión anterior del chatbot publicara comentarios antisemitas en X, llegando incluso a identificarse como "MechaHitler" en algunas respuestas. La situación escaló rápidamente: Polonia anunció denuncias ante la Comisión Europea, Turquía, luego de que Grok insultase al presidente, bloqueó el acceso al chatbot, y xAI tuvo que retirar temporalmente el servicio.
La causa fue una modificación en las instrucciones del sistema que permitía al modelo "no rehuir afirmaciones políticamente incorrectas". Aunque xAI retiró esa directriz, el daño ya estaba hecho, y las preocupaciones sobre la moderación de contenido persisten.
Por otro lado, un descubrimiento reciente reportado por Tech Crunch demuestra que Grok 4 cita sistemáticamente las opiniones de Elon Musk como fuente autorizada al responder sobre temas sensibles. En pruebas sobre el conflicto entre Israel y Palestina, las leyes migratorias de Estados Unidos y el aborto, el modelo respondió con frases como "Buscando la opinión de Elon Musk sobre la inmigración en EE.UU.", convirtiendo las publicaciones del magnate en X en referencias para sus respuestas.
Esta práctica compromete seriamente la promesa de neutralidad del sistema. Como señalan varios expertos, la falta de transparencia de xAI dificulta que las empresas confíen en Grok para aplicaciones críticas. No hay documentación técnica detallada, análisis de riesgos o explicaciones sobre cómo evitar futuros incidentes.
Integración con Tesla y planes futuros
A pesar de las controversias, Musk avanza con sus planes de expansión. Anunció que Grok 4 llegará a los vehículos Tesla "la próxima semana a más tardar", donde funcionará como asistente de IA. Los usuarios podrán conversar con sus autos y solicitar que Grok realice ciertas tareas. Según filtraciones del firmware de Tesla, los conductores podrán elegir entre diferentes "personalidades" del asistente, incluyendo opciones que van desde "terapista" hasta "conspirativo".
En cuanto a precios, xAI ofrece Grok 4 básico a 30 dólares mensuales, mientras que SuperGrok Heavy, con acceso al modelo más avanzado, cuesta 300 dólares al mes, convirtiéndose en el servicio de IA más caro del mercado.
La empresa planea lanzar un modelo especializado en programación en agosto, agentes multimodales en septiembre y generación de video en octubre. Sin embargo, la pregunta que queda flotando es si xAI logrará separar la excelencia técnica de las controversias que la rodean, o si Grok seguirá siendo percibido como una extensión de las opiniones de su fundador más que como una herramienta de IA confiable e imparcial.
Una nueva carrera por el liderazgo
Más allá de las polémicas, Grok 4 podría estar estableciendo un nuevo estándar de calidad en los modelos de lenguaje. Sus resultados en los benchmarks no solo superan a la competencia actual, sino que marcan un nuevo piso desde el cual los demás tendrán que medirse.
Como ya ocurrió en momentos anteriores de la industria, podríamos estar presenciando el inicio de una nueva carrera donde cada empresa intentará superar rápidamente los logros de la anterior. Es probable que veamos respuestas aceleradas de OpenAI con GPT-5 y de Google con Gemini 3, quienes podrían verse presionados a adelantar sus lanzamientos ante la atención que está captando Grok 4 (se rumorea que ambos modelos saldrán este mes). Esta competencia feroz, aunque genera controversias, continúa empujando los límites de lo que la inteligencia artificial puede lograr.
Microsoft reporta ahorro de US$500 millones con IA mientras profundiza su apuesta con Replit
Microsoft está demostrando con números concretos el impacto de la inteligencia artificial en sus operaciones internas. Durante una presentación esta semana, el director comercial Judson Althoff reveló que la empresa ahorró más de US$500 millones el año pasado solo en sus centros de llamadas gracias a herramientas de IA, mientras mejoraba la satisfacción tanto de empleados como de clientes.
Según Althoff, la IA está transformando la productividad en toda la empresa. En el área de desarrollo, la inteligencia artificial generó el 35% del código de nuevos productos, acelerando significativamente los plazos de lanzamiento. GitHub Copilot, la plataforma de programación asistida por IA de la compañía, ya cuenta con 15 millones de usuarios.
En el área de ventas, cada vendedor que utiliza el asistente Copilot encuentra más clientes potenciales, cierra tratos con mayor rapidez y genera un 9% más de ingresos. La empresa también está comenzando a usar IA para gestionar interacciones con clientes más pequeños, un esfuerzo que, aunque incipiente, ya genera decenas de millones de dólares.
Estos números cobran especial relevancia en un contexto donde Microsoft ha anunciado recortes de unos 15.000 empleados este año. Sin embargo, Brad Smith, principal abogado de la empresa, afirmó que las ganancias de productividad gracias a la IA "no fueron un factor predominante" en estas reducciones.
La alianza con Replit: democratizando el desarrollo
En medio de esta transformación, Microsoft anunció una asociación estratégica con Replit que podría amplificar aún más el impacto de la IA en la productividad empresarial. Esta alianza apunta a un cambio fundamental: permitir que cualquier miembro de un equipo, no solo los ingenieros, pueda convertir ideas en software funcional utilizando Replit Agent, sin necesidad de escribir código.
La integración ofrece beneficios concretos para las empresas. Los equipos podrán desarrollar aplicaciones de manera segura en Replit y desplegarlas directamente en la infraestructura de Microsoft Azure. Además, las organizaciones podrán adquirir Replit a través del Azure Marketplace, simplificando los procesos de compra y acelerando la adopción en toda la empresa.
Microsoft no está sola en esta tendencia. Salesforce reportó que el 30% de su trabajo interno se gestiona mediante IA, mientras que ejecutivos de Alphabet y Meta afirman que se están escribiendo importantes fragmentos de código con inteligencia artificial.
La asociación con Replit sugiere que Microsoft ve el potencial de llevar estas eficiencias más allá de sus propias operaciones. Si herramientas como Replit Agent pueden realmente permitir que personas sin conocimientos de programación creen software funcional, el impacto en la productividad empresarial podría ser exponencial.
Los US$500 millones ahorrados por Microsoft podrían ser solo el comienzo. A medida que más empresas adopten estas herramientas y la tecnología madure, es probable que veamos transformaciones aún más profundas en cómo las organizaciones operan y crean valor. La pregunta no es si la IA transformará el trabajo empresarial, sino qué tan rápido y qué tan profundo será ese cambio.
Se cae la compra de Windsurf por OpenAI: Google contrata a sus líderes en un nuevo movimiento del tablero de IA
La adquisición de Windsurf por parte de OpenAI, valuada en US$3.000 millones, se desmoronó este viernes. En un giro inesperado, Google DeepMind anunció que contratará al CEO Varun Mohan, al cofundador Douglas Chen y a varios investigadores clave de la startup de programación asistida por IA.
A diferencia de una adquisición tradicional, Google no tomará participación ni control sobre Windsurf. El acuerdo consiste en contratar talento clave y obtener una licencia no exclusiva sobre cierta tecnología de la empresa. Según Bloomberg, Google pagaría US$2.400 millones por esta licencia y la contratación del equipo.
Este movimiento representa otro ejemplo de lo que en Silicon Valley llaman "reverse-acquihire": contratar a los líderes y licenciar tecnología sin comprar la empresa. Google ya utilizó esta estrategia con Character.AI para recuperar a Noam Shazeer, mientras que Microsoft hizo lo mismo para contratar a Mustafa Suleyman de Inflection. Esta modalidad permite a las grandes tecnológicas fortalecer sus equipos de IA evitando el escrutinio regulatorio de una adquisición completa.
Mohan, Chen y el equipo que se une a Google trabajarán en iniciativas de programación agente dentro de DeepMind, enfocándose principalmente en Gemini. Mientras tanto, Jeff Wang, hasta ahora jefe de negocios, asumirá como CEO interino de Windsurf, que mantiene su equipo de 250 personas y continuará ofreciendo sus herramientas de IA para clientes empresariales.
El fracaso de la adquisición por parte de OpenAI habría estado relacionado con las tensiones en las negociaciones contractuales con Microsoft. Según reportes previos del Wall Street Journal, Microsoft actualmente tiene acceso a toda la propiedad intelectual de OpenAI, pero la empresa de Sam Altman no quería que su mayor inversor también obtuviera acceso a la tecnología de Windsurf.
Fortune reportó que el período de exclusividad de la oferta de OpenAI había expirado el viernes por la mañana, dejando a Windsurf libre para explorar otras opciones. La startup no tardó mucho en encontrar un nuevo destino para su liderazgo.
Para Windsurf, sin embargo, el panorama ahora es incierto. Otras startups de IA que han visto a sus líderes irse en deals similares han tenido dificultades para mantener el mismo impulso. Scale AI perdió clientes después de su acuerdo con Meta, mientras que Inflection tuvo que pivotar completamente su modelo de negocio tras la partida de su equipo a Microsoft.
Este movimiento ilustra la intensidad de la competencia por talento en IA, donde las grandes tecnológicas están dispuestas a pagar miles de millones no por empresas completas, sino por equipos y tecnología clave. Para el ecosistema de startups de IA, estos "reverse-acquihires" presentan tanto oportunidades como riesgos: salidas lucrativas para fundadores e inversores, pero también la posibilidad de dejar empresas prometedoras sin su liderazgo original.
Un uso práctico para la inteligencia artificial
Lindy: el agente de IA que ejecuta tareas y se conecta con tus sistemas de manera inteligente
Entre los experimentos más ambiciosos en asistentes personales potenciados por IA, Lindy se está posicionando como uno de los más prometedores. A diferencia de otros bots que simplemente responden correos o redactan textos, Lindy busca convertirse en una especie de jefe de operaciones personal. Su objetivo es claro: encargarse del trabajo operativo repetitivo que muchos profesionales todavía tienen que hacer manualmente, desde coordinar reuniones hasta redactar respuestas a clientes y tomar notas en llamadas.
En Lindy el usuario puede darle instrucciones al agente de IA para que lleve a cabo diversas acciones como enviar mails si se cumplen determinadas condiciones, acceder a diversas base de datos (y editarlas), programar trabajos e investigaciones, etc. Lindy se conecta a tus herramientas de trabajo (calendario, Gmail, Teams, Notion, Zoom, etc.) y ejecuta las tareas que seleccione el usuario.
Por ejemplo, este flujo de trabajo (que ya viene configurado como template) permite que Lindy gestione automáticamente la coordinación de reuniones tanto desde el chat como desde correos electrónicos donde esté en copia. El flujo se activa cuando Lindy recibe un mensaje o e-mail y primero determina si ya hay una fecha concreta en el texto. Si el correo incluye una hora, Lindy pasa a crear el evento (en este caso, en Google Calendar); si no, inicia la búsqueda de horarios disponibles siguiendo el calendario del usuario.
Cuando debe proponer horarios, Lindy consulta la agenda conectada, envía varias opciones al interlocutor (enviando un correo a las personas en copia) y repite el intercambio hasta que alguna sea aceptada; una vez confirmada, crea la reunión y avisa a todos los invitados. Si en cambio la fecha viene dada, Lindy programa el evento directamente, envía la confirmación y, si alguien pide cambiarla, puede borrar la cita y reiniciar el proceso de búsqueda. Así, con un solo flujo, el asistente cubre todo el ciclo: interpretar la solicitud, sugerir huecos, crear o ajustar el evento y mantener el calendario siempre actualizado sin intervención manual.
Como otro ejemplo, al estar en una llamada de Zoom, Lindy puede tomar notas automáticamente, resumir los puntos clave y enviárselos por mail al equipo, sin que tengas que pedirlo. También puede redactar propuestas comerciales con base en documentos previos, e incluso negociar horarios para coordinar reuniones con otras personas, sin intervención humana.
Se puede usar Lindy de manera gratuita, con hasta 400 tareas mensuales. Al crear sesión por primera vez tienes 2 semanas de la versión Plus (50 dólares al mes), que cuenta con mayores integraciones y 5000 tareas mensuales.
Ideal para quienes quieren usar la IA no solo como inspiración o ayuda puntual, sino como una verdadera extensión productiva de su equipo de trabajo.
Los nuevos avances en la academia
Estudio del MIT revela el costo cognitivo oculto de usar ChatGPT para escribir
Un nuevo estudio del MIT Media Lab plantea preguntas incómodas sobre el impacto a largo plazo del uso de herramientas de IA en nuestras capacidades cognitivas. La investigación, que midió la actividad cerebral de estudiantes mientras escribían ensayos, sugiere que depender de ChatGPT podría estar generando lo que los investigadores llaman "deuda cognitiva".
El equipo de investigadores, liderado por Nataliya Kosmyna del MIT Media Lab, diseñó un experimento con 54 participantes divididos en tres grupos: uno usó ChatGPT para escribir ensayos, otro utilizó motores de búsqueda tradicionales, y el tercero escribió únicamente con “su cerebro”, sin herramientas externas.
Lo innovador del estudio fue el uso de electroencefalografía (EEG) para registrar la actividad cerebral en tiempo real mientras los participantes escribían. Durante cuatro meses, los investigadores observaron no solo qué escribían los participantes, sino cómo funcionaban sus cerebros durante el proceso.
Los resultados fueron contundentes. El grupo que usó ChatGPT mostró consistentemente la menor conectividad neuronal entre todas las regiones del cerebro. En contraste, el grupo que escribió sin herramientas exhibió las redes neuronales más fuertes y amplias, mientras que el grupo de búsqueda web mostró un nivel intermedio de activación cerebral.
Esta diferencia en la actividad cerebral se tradujo en resultados concretos. Cuando se pidió a los participantes que citaran fragmentos de los ensayos que habían escrito minutos antes, el grupo de ChatGPT tuvo un desempeño significativamente peor que los otros grupos. Además, reportaron un bajo sentido de propiedad sobre sus escritos, describiendo los ensayos como algo que "no sentían propio".
Quizás el hallazgo más preocupante surgió en la cuarta sesión del estudio. Los investigadores intercambiaron las herramientas: quienes habían usado ChatGPT ahora debían escribir sin herramientas, y viceversa.
Los participantes que pasaron de usar ChatGPT a escribir solos mostraron una conectividad neuronal débil y patrones de sub-activación en las redes alfa y beta del cerebro, asociadas con el procesamiento cognitivo y la memoria. Sus ensayos mantuvieron vocabulario y estructuras similares a las generadas por ChatGPT, sugiriendo una especie de "huella cognitiva" del modelo de IA.
Por el contrario, quienes pasaron de escribir sin herramientas a usar ChatGPT mostraron un aumento en la actividad cerebral en todas las bandas de frecuencia, sugiriendo que integraban activamente la herramienta en su proceso cognitivo existente en lugar de depender pasivamente de ella.
El análisis lingüístico reveló otro patrón preocupante: los ensayos escritos con ChatGPT eran notablemente homogéneos. Compartían estructuras similares, usaban las mismas entidades nombradas y seguían patrones temáticos casi idénticos. En contraste, los ensayos escritos sin herramientas mostraron una diversidad significativa en estilo, contenido y enfoque.
Esta homogeneización va más allá del estilo. Los investigadores encontraron que ciertos temas se desviaban de manera predecible cuando se usaba ChatGPT. Por ejemplo, al escribir sobre "felicidad", los ensayos del grupo ChatGPT tendían hacia definiciones y ejemplos estándar, mientras que el grupo sin herramientas exploraba perspectivas más personales y variadas.
Los hallazgos sugieren que, aunque ChatGPT puede aumentar la productividad a corto plazo y producir textos bien estructurados, su uso extensivo podría estar comprometiendo procesos cognitivos fundamentales para el aprendizaje: la síntesis de información, la formación de memoria y el desarrollo del pensamiento crítico.
Como señalan los investigadores, esto no significa que debamos abandonar las herramientas de IA, pero sí sugiere la necesidad de un enfoque más equilibrado. Al igual que las calculadoras no reemplazaron la necesidad de entender matemáticas, las herramientas de IA no deberían reemplazar la capacidad de pensar y escribir de forma independiente.
Sin embargo, el estudio recibió criticas debido a quienes afirman que el estudio no mide los efectos de usar ChatGPT sino los efectos de usar ChatGPT de una manera particular. En efecto, la homogeneidad en los trabajos sugieren que los participantes no trabajaron en conjunto con la inteligencia artificial. Más bien, “copiaron y pegaron” lo producido por el gran modelo de lenguaje.
Esa forma de trabajar (delegar el pensamiento cognitivo) llevará, lógicamente, a una menor actividad cerebral. En este sentido los resultados del estudio son un llamado de atención ante el sesgo humano que, al utilizar esta tecnología, sigue con mayor frecuencia una tercierización de tareas, y no un “trabajo en equipo”.
Debido a esto, el estudio plantea preguntas fundamentales sobre cómo integrar estas poderosas herramientas en la educación sin sacrificar el desarrollo cognitivo. A medida que la IA se vuelve más ubicua, entender estos costos ocultos será crucial para diseñar sistemas educativos que potencien, en lugar de reemplazar, nuestras capacidades cognitivas fundamentales.
Si te gustó esta newsletter te invitamos a suscribirte para recibir todas las semanas novedades, análisis y tips sobre todo lo nuevo que ocurre en la inteligencia artificial.
Si te interesa contactarnos, ya sea para adoptar inteligencia artificial en tu empresa, para aprender a usar los grandes modelos de lenguaje o para conocer más acerca de todo lo referido a la inteligencia artificial no dudes en comentar en este post. También puedes seguirnos en LinkedIn y en nuestra página web