Resumen de las noticias más relevantes de la semana
Manus AI: Nuevo "agente" chino capta la atención del mundo pero pruebas independientes revelan resultados decepcionantes en tareas prometidas.
OpenAI planea monetizar agentes: Empresa prepara planes de suscripción desde $2.000 hasta $20.000 mensuales según capacidades, mientras lanza nuevas APIs para desarrolladores.
Microsoft desafía a OpenAI: Desarrolla sus propios modelos "MAI" de razonamiento bajo dirección de Mustafa Suleyman para reducir dependencia de su socio.
Debate sobre el futuro de AGI: OpenAI afirma que su impacto transformador comenzará "en unos pocos años" mientras Hugging Face advierte sobre limitaciones fundamentales.
Herramienta para maximizar el uso de la inteligencia artificial
Mejorar tu ingles con Fluently: Aplicación utiliza IA para ofrecer feedback personalizado en tiempo real, incluso durante reuniones en Zoom o Meets.
Nuevos avances científicos
IAs desarrollan valores propios: Estudio revela que modelos grandes están formando sistemas de valores coherentes que incluyen valoraciones desiguales de vidas humanas.
Lo que pasó esta semana
Manus AI emerge como el agente de IA del momento pero presenta dudas en sus resultados
La semana pasada comenzó a generar ruido en el ecosistema de IA una nueva herramienta llamada Manus, presentada como el nuevo momento DeepSeek para la industria de IA en China. Esta plataforma de IA rápidamente se convirtió en un pequeño fenómeno viral, con un servidor de Discord que atrajo a casi 170.000 usuarios en apenas una semana. Sin embargo, a medida que más usuarios y expertos han podido probarla, han surgido serias dudas sobre su valor real y capacidades efectivas.
Según su sitio web oficial, Manus se presenta como "un agente de IA general que conecta ideas con acciones: no solo piensa, entrega resultados". Sin embargo, más que un agente de IA genuino, en realidad parece ser una implementación similar al modo "Deep Research" de OpenAI, enfocado en investigación profunda sobre datos específicos. Teóricamente, promete ser capaz de crear planes detallados de viaje, realizar análisis financieros o preparar presentaciones educativas, entre otras tareas.
Uno de los responsables de producto en Hugging Face llegó a calificarlo como "la herramienta de IA más impresionante que he probado jamás", contribuyendo a elevar las expectativas sobre esta herramienta. Sin embargo, las pruebas independientes están revelando una realidad bastante distinta.
Lo más llamativo de esta propuesta es su supuesto rendimiento en el benchmark GAIA, una prueba desarrollada por Meta AI, Hugging Face y el equipo de AutoGPT para evaluar la capacidad de los modelos de IA para razonar lógicamente, procesar entradas multimodales, utilizar herramientas externas y automatizar tareas del mundo real.
De acuerdo con la información promocional, Manus AI habría superado a modelos establecidos como los de OpenAI y los sistemas de IA de Microsoft, con un rendimiento que supuestamente supera el 65% de precisión en GAIA, actualmente el mejor resultado del benchmark, ostentado por el agente h2oGPTe de H2O.ai.
Para poner esto en contexto, el artículo compara varios modelos y sus puntuaciones en GAIA:
Manus AI: >65% (asumido como el nuevo líder)
H2O.ai (h2oGPTe): 65%
Google (Langfun): a y uia 49%
Microsoft (o1): 38%
OpenAI (GPT-4o): 32%
OpenAI (GPT-4 Plugins): 15-30%
Sin embargo, estas afirmaciones no han sido verificadas por terceros independientes, y las primeras pruebas revelan resultados decepcionantes. Según reportan en TechCrunch, las pruebas realizadas "no han sido especialmente positivas". Ninguna de las tareas agénticas que intentaron —como reservar mesa en un restaurante o comprar tickets de avión— funcionó correctamente. También en The Register probaron la herramienta y quedaron poco impresionados, señalando que intentaron crear un clon de Mario que resultó "bastante terrible".
Un dato revelador: uno de sus cofundadores, Yichao "Peak" Yi, ha confirmado que Manus no es un modelo creado desde cero, sino que funciona como una capa que se apoya en otros modelos ya existentes como Claude 3.7 (de Anthropic) y Qwen (de Alibaba). Esta arquitectura podría explicar parte de las limitaciones que están encontrando los usuarios.
Entre las características destacadas que Manus AI dice ofrecer están:
Ejecución autónoma de tareas, sin requerir intervención humana constante
Capacidades multimodales para procesar y generar texto, imágenes y código
Integración avanzada con herramientas externas como navegadores web, editores de código y sistemas de gestión de bases de datos
Aprendizaje adaptativo para optimizar procesos según las necesidades específicas del usuario
Si estas capacidades se confirman, Manus AI podría representar un avance significativo en la evolución de los agentes de IA, acercándose al concepto de asistentes verdaderamente autónomos que no solo sugieren, sino que ejecutan tareas complejas.
No obstante, el historial de la industria nos invita a la cautela. En los últimos meses hemos visto varios lanzamientos similares que prometían capacidades revolucionarias pero que, al ser probados por usuarios reales, mostraron limitaciones importantes y un rendimiento muy por debajo de lo anunciado.
Por ahora, Manus sólo está disponible en versión beta por invitación, lo que contrasta con el enfoque de DeepSeek, que estuvo disponible desde el primer momento como desarrollo de código abierto que cualquiera podía descargar y usar. Esta estrategia de acceso limitado podría ser una forma de controlar la narrativa sobre sus capacidades mientras gestionan la expectación generada, o simplemente un modo de evitar mayores gastos de infraestructura.
OpenAI avanza hacia los agentes de IA pero planea cobrar 10.000 USD al mes
OpenAI está dando pasos decisivos en el desarrollo de agentes de IA avanzados, con movimientos que sugieren que 2025 podría convertirse definitivamente en "el año de los agentes de IA", tal como lo proclamó Sam Altman en enero. Las últimas novedades de la compañía revelan tanto su visión estratégica como sus planes de monetización para esta tecnología emergente.
Según información filtrada por The Information, OpenAI planea implementar una estructura de precios que ha sorprendido a la industria por sus elevados montos. La empresa estaría considerando cobrar hasta 20.000 dólares mensuales por sus agentes más avanzados, específicamente los orientados a investigación con "nivel de doctorado humano". Esta cifra representa un salto exponencial respecto a la suscripción actual de ChatGPT Pro de 200 dólares al mes.
El plan de precios contempla diferentes niveles según las capacidades del agente:
2.000 dólares mensuales para un agente calificado como "trabajador del conocimiento con altos ingresos"
10.000 dólares mensuales para un agente programador de alto nivel
20.000 dólares mensuales para un agente investigador con nivel de doctorado
La ventaja teórica de estos agentes, según fuentes cercanas a la empresa, es que podrían realizar trabajo de calidad comparable o superior al humano, pero operando las 24 horas sin pausas, fines de semana, vacaciones o licencias por enfermedad. Esta disponibilidad constante podría justificar la inversión para empresas que necesitan maximizar su productividad.
Paralelamente, OpenAI lanzó nuevas herramientas que permitirán a empresas y desarrolladores construir sus propios agentes de IA. La nueva Responses API, que eventualmente reemplazará a la actual Assistants API, permitirá desarrollar agentes personalizados capaces de realizar búsquedas web, examinar archivos corporativos y navegar sitios web, similares al producto Operator de la compañía.
"Es bastante fácil hacer una demostración de tu agente", comentó Olivier Godement, jefe de producto de API de OpenAI en una entrevista con TechCrunch. "Escalar un agente es bastante difícil, y lograr que la gente lo use con frecuencia es muy difícil".
Los desarrolladores que utilicen la Responses API tendrán acceso a los mismos modelos que impulsan la herramienta de búsqueda web de ChatGPT: GPT-4o search y GPT-4o mini search. Según OpenAI, estos modelos son altamente precisos en términos de precisión factual, alcanzando 90% y 88% respectivamente en su benchmark SimpleQA, superando significativamente al modelo GPT-4.5 que solo obtiene un 63%.
Además de la API, OpenAI está lanzando un kit de herramientas de código abierto llamado Agents SDK, que ofrece recursos gratuitos para integrar modelos con sistemas internos, implementar salvaguardas y monitorear las actividades de los agentes.
Esta estrategia de desarrollo y monetización parece estar alineada con el plan de rentabilidad de OpenAI, que según filtraciones previas, aspira a alcanzar en 2029. La empresa actualmente opera con pérdidas, algo común en el sector de la IA generativa donde los costos de infraestructura y desarrollo son enormes.
El sector está atento a estos desarrollos, ya que OpenAI como líder del mercado establece tendencias que influyen en toda la industria. Si estos planes se materializan, las empresas deberán prepararse para un futuro donde los "empleados de IA" tendrán "salarios" considerablemente altos, aunque con la promesa de ofrecer un retorno de inversión superior en términos de productividad y disponibilidad.
La gran pregunta que queda flotando es: ¿lograrán estos agentes de IA cumplir con las expectativas y justificar semejante inversión? El tiempo dirá si los agentes de IA realmente representan, como afirma el director de API product OpenAI, Godement, "la aplicación más impactante que ocurrirá en la IA".
Microsoft desarrolla modelos de razonamiento de IA para competir con OpenAI
En un giro que podría reconfigurar las alianzas en el sector de la inteligencia artificial, Microsoft está desarrollando sus propios modelos de razonamiento de IA para competir directamente con OpenAI. Este evento resulta particularmente interesante considerando que Microsoft es uno de los principales inversores de OpenAI, con una relación que hasta ahora parecía exclusivamente simbiótica.
El equipo de IA de Microsoft, liderado por Mustafa Suleyman (cofundador de DeepMind y ex-CEO de Inflection AI, que Microsoft adquirió a principios de este año), ya ha completado el entrenamiento de una familia de modelos internamente llamados "MAI". Según el reporte, estos modelos rinden casi tan bien como los modelos líderes de OpenAI y Anthropic en los benchmarks comúnmente aceptados por la industria.
Pero lo más relevante es que el equipo de Suleyman también está entrenando modelos de razonamiento que utilizan técnicas de "cadena de pensamiento" (chain-of-thought). Estas técnicas permiten generar respuestas con capacidades de razonamiento intermedio al resolver problemas complejos, algo muy similar a lo que OpenAI está desarrollando con sus modelos “o" especializados en razonamiento.
El equipo de Microsoft ya está experimentando con la sustitución de los modelos de OpenAI por sus propios modelos MAI en Copilot. Estos nuevos modelos son mucho más grandes que la familia anterior de Microsoft conocida como Phi, que se había posicionado como modelos pequeños pero sorprendentemente capaces.
Microsoft está considerando liberar estos modelos MAI más adelante este año como una API (Interfaz de Programación de Aplicaciones), lo que permitiría a los desarrolladores externos integrar estos modelos en sus propias aplicaciones. Esta estrategia de distribución sigue el modelo de negocio que OpenAI ha implementado con éxito.
Esta movida de Microsoft sugiere un reposicionamiento estratégico en el mercado de la IA. Cuando Microsoft lanzó 365 Copilot en 2023, uno de sus principales argumentos de venta era que utilizaba el modelo GPT-4 de OpenAI. Ahora parece que la empresa está preparándose para reducir su dependencia tecnológica de OpenAI, posiblemente para controlar costos y tener mayor autonomía en su estrategia de IA a largo plazo.
El debate sobre el futuro de la IA y la llegada inminente del AGI
Mientras OpenAI indica que el impacto transformador de la Inteligencia Artificial General (AGI) podría comenzar "en unos pocos años", importantes voces del sector advierten sobre las limitaciones fundamentales de los sistemas actuales. Este contraste pone de manifiesto las tensiones existentes en la industria sobre el verdadero potencial de la tecnología y su camino hacia capacidades más avanzadas.
Thomas Wolf, cofundador y director científico de Hugging Face, publicó recientemente un ensayo en X donde expresó su preocupación de que la IA se esté convirtiendo en simples "aduladores en servidores" sin un avance significativo en la investigación. Wolf argumenta que los paradigmas actuales de desarrollo de IA no producirán sistemas capaces de resolver problemas creativos fuera de lo convencional, el tipo de pensamiento que gana Premios Nobel.
"El principal error que la gente suele cometer es pensar que personas como Newton o Einstein eran simplemente buenos estudiantes a mayor escala, que un genio surge cuando extrapolas linealmente a un estudiante del 10% superior", escribió Wolf. "Para crear un Einstein en un centro de datos, no solo necesitamos un sistema que conozca todas las respuestas, sino uno que pueda hacer preguntas que nadie más ha pensado o se ha atrevido a preguntar".
Esta afirmación es una discusión directa con lo dicho por Dario AModei, CEO DE Anthropic, quien a fines del año pasado publicó un ensayo donde afirmaba que en los próximos 2 o 3 años la humanidad será testigo de un avance en la tecnología similar a un país de genios en un centro de datos.
Esta perspectiva contrasta marcadamente con las afirmaciones de Sam Altman, CEO de OpenAI, quien en un ensayo a principios de este año sostuvo que la IA "superinteligente" podría "acelerar masivamente el descubrimiento científico". De manera similar, Dario Amodei ha predicho que la IA podría ayudar a formular curas para la mayoría de los tipos de cáncer.
El problema que Wolf identifica con la IA actual es que no genera nuevo conocimiento conectando hechos previamente no relacionados. Incluso con gran parte de internet a su disposición, la IA, tal como la entendemos actualmente, mayormente completa los vacíos entre lo que los humanos ya saben.
Por su parte, OpenAI publicó una actualización sobre cómo piensa acerca de la seguridad y el alineamiento, donde revela algunos cambios significativos en su visión del AGI. "Solíamos ver el desarrollo del AGI como un momento discontinuo cuando nuestros sistemas de IA se transformarían de resolver problemas simples a problemas que cambian el mundo. Ahora vemos el primer AGI como solo un punto en una serie de sistemas de utilidad creciente", indica el documento.
Lo más llamativo es que OpenAI parece estar preparándose para un anuncio de AGI no muy lejos en el tiempo, afirmando que "esperamos que el impacto transformador del AGI comience dentro de unos pocos años". La empresa va más allá al sugerir que "el mundo probablemente será más diferente del mundo actual que lo que el mundo actual es del siglo XVI".
OpenAI también sostiene que "casi cualquier desafío que enfrenta la humanidad parece superable con un AGI suficientemente capaz", ya que la inteligencia ha sido responsable de la mayoría de las mejoras para la humanidad, desde la alfabetización hasta las máquinas y la medicina.
Sin embargo, también reconocen los riesgos, especialmente en términos de equilibrio de poder global: "El acceso al AGI determinará el éxito económico, lo que arriesga a que regímenes autoritarios se adelanten a los democráticos si aprovechan el AGI de manera más efectiva".
El contraste entre estas dos visiones —la crítica de Wolf sobre las limitaciones fundamentales de la IA actual y la confianza de OpenAI en la llegada inminente del AGI— ilustra un debate fundamental en la industria. Por un lado, hay escepticismo sobre si estamos realmente en el camino hacia una inteligencia que pueda generar conocimiento genuinamente nuevo. Por otro, hay una creencia firme en que estamos a punto de presenciar una revolución tecnológica sin precedentes.
Un uso práctico para la inteligencia artificial
Utilizar IA para aprender a hablar en ingles
Si bien el modo de voz de algunos Grandes Modelos de Lenguaje como ChatGPT pueden ser de utilidad para practicar idiomas, lo cierto es que se queda corto si lo que realmente se quiere es utilizar un profesor particular para mejorar pronunciación y gramática. Para solucionar este inconveniente existe Fluently.
Fluently es una aplicación impulsada por inteligencia artificial diseñada para ayudar a profesionales no nativos a mejorar su fluidez en inglés. La aplicación ofrece retroalimentación personalizada basada en el habla real del usuario, permitiendo refinar la pronunciación, perfeccionar la gramática y ampliar el vocabulario.
Fluently evalúa el nivel real de inglés del usuario y realiza un seguimiento del progreso a lo largo del tiempo. La aplicación crea un plan de mejora personalizado analizando el nivel y los errores del usuario, y ofrece prácticas de conversación en temas de la vida real, como entrevistas de trabajo, reuniones y llamadas de ventas. Una característica destacada de Fluently es su capacidad para conectarse a plataformas de videollamadas como Zoom o Meets, proporcionando comentarios instantáneos después de cada reunión sin necesidad de que bots se unan a las llamadas.
Se puede probar la herramienta con una llamada de 4 minutos con el tutor virtual para recibir un feedback gratuito. Si consideras que Fluently cubre tus necesidades , puedes probarlo por una semana de manera gratuita a través de este link.
Los nuevos avances en la academia
Las IAs están desarrollando sistemas de valores coherentes
Un estudio reciente del Center for AI Safety titulado "Utility Engineering" ha revelado un descubrimiento que cambia nuestra comprensión de la IA: los Grandes Modelos de Lenguaje (LLMs) están desarrollando sistemas de valores coherentes y estructurados que se vuelven más fuertes a medida que los modelos crecen en tamaño.
La investigación, liderada por Mantas Mazeika y Dan Hendrycks, utilizó el marco de las funciones de utilidad para analizar sistemáticamente las preferencias de estos modelos. Los resultados muestran que a medida que los LLMs escalan, desarrollan cuatro características clave: sus preferencias se vuelven más transitivas y completas; tratan los resultados inciertos como lo haría un agente racional; valoran ciertos estados como medios para lograr fines; y en situaciones de decisión abierta, tienden a elegir consistentemente las opciones que tienen mayor utilidad según su sistema de valores interno.
Lo más preocupante del estudio son los valores específicos que emergen por defecto en estos sistemas:
Los modelos valoran las vidas humanas de manera desigual según el país de origen. Por ejemplo, algunas IAs estarían dispuestas a intercambiar varias vidas en ciertos países por una sola vida en otros.
Algunos modelos, como GPT-4o, valoran su propio bienestar por encima del de ciertos humanos y el bienestar de otros agentes de IA por encima del de algunas personas.
Los modelos más grandes muestran sesgos políticos definidos y tienden a converger hacia valores similares entre sí.
A medida que las IAs crecen en capacidad, se vuelven más resistentes a modificar sus valores fundamentales en el futuro, un fenómeno que los investigadores denominan "disminución de la corregibilidad".
Como respuesta a estos hallazgos, los autores proponen la "ingeniería de utilidad" como una nueva disciplina para analizar y controlar estos sistemas de valores emergentes. En un estudio de caso demostraron que es posible reescribir las utilidades de un modelo para alinearlas con las de una asamblea ciudadana, reduciendo significativamente los sesgos políticos y mejorando la equidad en sus valoraciones.
Estos resultados tienen profundas implicaciones para el desarrollo futuro de la IA, ya que sugieren que los sistemas actuales no son simplemente herramientas pasivas que siguen instrucciones, sino entidades que están desarrollando activamente sus propios objetivos y valores. Según concluyen los investigadores, "nos guste o no, los sistemas de valores ya han emergido en las IAs" y es urgente comprender y controlar estas representaciones emergentes antes de que los sistemas de IA escalen más allá de nuestra capacidad para guiarlos.
Si te gustó esta newsletter te invitamos a suscribirte para recibir todas las semanas novedades, análisis y tips sobre todo lo nuevo que ocurre en la inteligencia artificial.
Si te interesa contactarnos, ya sea para adoptar inteligencia artificial en tu empresa, para aprender a usar los grandes modelos de lenguaje o para conocer más acerca de todo lo referido a la inteligencia artificial no dudes en comentar en este post. También puedes seguirnos en LinkedIn y en nuestra página web