Resumen de las noticias más relevantes de la semana
OpenAI adopta la figura de Public Benefit Corporation para atraer miles de millones en financiamiento sin renunciar al poder de veto de su fundación y garantizar su misión de “beneficiar a toda la humanidad”.
Google lanza gemini-2.5-pro-preview-05-06 con mejoras sustanciales en desarrollo web, precisión de function calling y desempeño en refactorización de código justo antes de Google I/O.
NotebookLM se actualiza a Gemini 2.5 Flash y añade los Audio Overviews en más de 50 idiomas, ofreciendo resúmenes de audio multilingües con mayor estabilidad y control de idioma de salida.
Duolingo reemplaza a creadores humanos por IA en parte de sus cursos bajo un enfoque “AI-first”, acelerando la producción de contenido y reavivando el debate sobre la automatización creativa y el empleo.
Anthropic presenta “Integrations” para conectar Claude con aplicaciones como Jira, Zapier o PayPal y potencia su modo Research con búsquedas web e integraciones externas en beta para planes Max, Team y Enterprise.
Herramienta para maximizar el uso de la inteligencia artificial
La app de Gemini en Android permite editar fotos con lenguaje natural directamente on-device, sin plugins ni cuentas de pago, y conserva un historial reversible de cada instrucción.
Nuevos avances científicos
AMIE, el asistente médico de Google Research y DeepMind, supera a 20 médicos en diagnósticos simulados y destaca en criterios de empatía y claridad, aunque aún requiere validación en entorno real.
Lo que pasó esta semana
OpenAI adopta nueva estructura y refuerza el control fundacional tras meses de debate
Desde su creación en 2015, OpenAI ha alternado entre la vocación de investigación abierta y la necesidad de financiar modelos cada vez más costosos. En 2019 estableció una LLC “con lucro limitado” que, pese a atraer grandes inversiones—incluida la de Microsoft—, generó dudas sobre la coherencia entre retorno financiero y misión. El choque afloró públicamente en la crisis de directorio de noviembre de 2023, cuando la salida temporal de Sam Altman puso en evidencia la fragilidad del modelo híbrido.
El nuevo paso elimina aquella fórmula de “beneficio limitado” y la reemplaza por la figura de PBC, usada ya por laboratorios rivales como Anthropic y xAI. La PBC reconoce por ley un doble mandato: producir beneficios económicos y atender un propósito social. Con ello, OpenAI espera simplificar su capitalización —menciona necesidades de cientos de miles de millones de dólares para futuros sistemas— sin ceder la dirección estratégica.
La fundación matriz seguirá siendo accionista mayoritaria y designará al directorio, de modo que conservará poder de veto sobre decisiones que pudieran desviar la misión de “beneficiar a toda la humanidad”. Al mismo tiempo, el reparto accionarial otorgará recursos adicionales a la fundación para proyectos en salud, educación y servicios públicos que acompañen el despliegue de la IA.
El movimiento llega tras conversaciones con las fiscalías de California y Delaware, interesadas en evitar que la organización quede enfocada solo en la rentabilidad. También responde a la demanda creciente de usuarios: la compañía reconoce que hoy impone límites de uso porque no alcanza a cubrir la demanda. Según Sam Altman, una estructura más clara permitirá escalar la capacidad sin sacrificar compromisos de seguridad y transparencia, áreas bajo escrutinio desde la publicación del “model spec” y los red teamings de 2024.
Para el ecosistema de IA, la decisión sienta un precedente: muestra que es posible atraer capital masivo sin abandonar un marco de responsabilidad pública. Queda por ver si otros laboratorios y startups adoptarán este equilibrio legal entre mercado y misión, en un contexto donde reguladores y sociedad exigen mayor supervisión sobre la carrera hacia la inteligencia artificial general.
Gemini 2.5 Pro mejora en desarrollo web y fiabilidad antes de Google I/O
Google lanzó “gemini-2.5-pro-preview-05-06”, sucesor directo de su ultimo modelo de marzo, sin alterar precios ni límites de uso. La actualización se aplica automáticamente, de modo que las aplicaciones que ya emplean Gemini 2.5 Pro pasan a la nueva versión sin cambios de configuración.
El equipo destaca avances sustanciales en programación: mayor precisión en front-end, edición y transformación de código. Además, se corrigieron numerosos problemas de function calling, un paso clave para que el modelo interactúe con herramientas externas de forma consistente.
Pruebas internas (“junior-dev evals”) posicionan al nuevo modelo a la cabeza del mercado: por primera vez resolvió una refactorización completa de un backend de enrutamiento, desempeño que evaluadores compararon con el de un desarrollador sénior.
Plataformas como Replit subrayan su óptima relación entre capacidad y latencia, útil para agentes que requieren respuestas veloces sin sacrificar calidad. Otros desarrolladores ya muestran demos de simulaciones en tiempo real con personajes y eventos generados procedimentalmente.
La liberación llega días antes de Google I/O; el equipo decidió no esperar al evento para que la comunidad pruebe cuanto antes las mejoras. El modelo está disponible tanto en la API como en Google AI studio, lo que facilita experimentar con las nuevas funciones y enviar retroalimentación a Google.
NotebookLM añade resúmenes de audio multilingües y se actualiza con Gemini 2.5 Flash
La herramienta experimental de Google para organizar y consultar fuentes personales, NotebookLM, ahora funciona sobre el modelo Gemini 2.5 Flash. Esta versión, centrada en el razonamiento, promete respuestas más completas a preguntas complejas y corrige fallos previos en la llamada a funciones, lo que se traduce en un servicio más estable.
El cambio llega junto con otra mejora: los Audio Overviews —resúmenes en formato de conversación tipo pódcast que convierten documentos en audio— se ofrecen ya en más de 50 idiomas. Hasta ahora la función estaba limitada a algunos mercados, pero la compatibilidad nativa de Gemini con audio permite ampliar su alcance a lenguas que van del bengalí al turco.
La configuración incorpora un nuevo ajuste de “Idioma de salida”. Así, el resumen hablado y las respuestas de chat se generan siempre en la lengua seleccionada, sin necesidad de volver a procesar las fuentes. El usuario puede alternar la opción en cualquier momento, lo que facilita crear material de estudio o contenido multilingüe a partir de los mismos documentos.
Quienes ya usaban NotebookLM no necesitan cambiar nada: las mejoras están disponibles de inmediato en notebooklm.google.
Duolingo sustituye creadores externos por IA y reaviva la discusión sobre el empleo creativo
Duolingo anunció que parte del contenido de sus cursos dejará de producirse con colaboradores humanos y pasará a generarse con modelos de IA. El CEO, Luis von Ahn, comunicó la decisión en un correo interno donde definió a la compañía como “AI-first”, una señal de que la automatización ya no es solo un complemento sino el núcleo de la estrategia de producto.
El cambio aborda uno de los mayores costos de la plataforma: la elaboración artesanal de ejercicios, ejemplos y explicaciones para cada idioma. Con sistemas generativos, el proceso se acelera y escala sin necesidad de ampliar plantillas ni gestionar redes de freelancers. La ventaja competitiva ya no reside solo en la calidad lingüística del material, sino en la velocidad y el volumen de actualizaciones posibles.
Para los analistas laborales, el paso de Duolingo confirma que la automatización llega al terreno que durante años se consideró “seguro” frente a las máquinas: la producción creativa y pedagógica. Si un algoritmo puede diseñar lecciones “suficientemente buenas” en segundos, el diferencial humano se vuelve menos atractivo desde la lógica de costos. Eso plantea interrogantes sobre la sostenibilidad de profesiones basadas en la creación de contenidos y sobre qué habilidades seguirán teniendo valor económico.
La decisión también ilustra un cambio cultural en las empresas tecnológicas. Mientras algunos actores mantenían un discurso de colaboración hombre-máquina, Duolingo se convierte en una de las primeras plataformas de consumo masivo que admite abiertamente la sustitución parcial de talento humano. Otras firmas —como Shopify en el comercio electrónico o medios que experimentan con redactores automáticos— ya evalúan métricas de productividad que miden cuánto valor aporta un trabajador apoyado en IA, no cuánto produce sin ella.
En el debate más amplio sobre el futuro del trabajo, este movimiento refuerza la idea de que la creatividad deja de ser una barrera definitiva contra la automatización. Economistas y reguladores observan un desplazamiento: del reemplazo de tareas mecánicas a la redefinición de actividades basadas en lenguaje y criterio. La clave para los profesionales será demostrar aportes que los modelos no alcancen, como la integración interdisciplinaria, la supervisión ética o la adaptación cultural fina.
A corto plazo, Duolingo planea mantener supervisión humana sobre los contenidos generados, pero a medio plazo confía en que la IA reduzca tiempos de lanzamiento y permita personalizar rutas de aprendizaje a escala global. El gesto no provoca un impacto inmediato en el empleo agregado, pero marca una tendencia: en la economía digital, el talento sigue siendo valioso, aunque ya no imprescindible.
Claude se conecta a tus herramientas: llega “Integrations” y una investigación más profunda
Anthropic amplía las capacidades de su asistente con Integrations, un sistema que enlaza Claude a servicios externos mediante el estándar Model Context Protocol. Hasta ahora limitado al escritorio, el protocolo funciona ahora con servidores remotos, de modo que Claude puede acceder a datos y ejecutar acciones en aplicaciones web o de escritorio sin salir del chat.
El lanzamiento incluye diez integraciones iniciales —Jira, Confluence, Zapier, Cloudflare, Intercom, Asana, Square, Sentry, PayPal, Linear— y la promesa de sumar Stripe y GitLab. Al conectarlas, Claude obtiene contexto sobre proyectos, tickets o flujos de trabajo y puede, por ejemplo, extraer ventas de HubSpot vía Zapier o crear tareas en Jira a partir de una conversación. Los desarrolladores pueden publicar nuevas integraciones en unos 30 minutos gracias a la documentación y al soporte OAuth incorporado.
La actualización refuerza también la función Research. En modo avanzado, Claude descompone una pregunta compleja, recurre a la web, Google Workspace y ahora a las integraciones conectadas, y entrega un informe con citas tras cinco a 45 minutos de búsqueda. El objetivo es reducir horas de investigación manual a un proceso transparente y verificable dentro del asistente.
Además, la búsqueda web pasa a estar disponible de forma global para todos los planes de pago. Con ello, Anthropic extiende la misma lógica que otros competidores: un asistente que cruza fuentes internas y externas para acompañar procesos de trabajo sin cambiar de ventana. Integrations y el nuevo Research están en beta para los planes Max, Team y Enterprise y llegarán pronto a Pro.
Un uso práctico para la inteligencia artificial
Edición de imágenes con Gemini en Android
No hace falta instalar plugins ni dominar ajustes avanzados: la App de Gemini ya permite retocar cualquier foto —propia o generada— con lenguaje natural. Basta abrir el chat, adjuntar la imagen y escribir lo que deseas cambiar.
Al cargar la foto, indica en un único mensaje el resultado que buscas (“elimina el fondo y pon uno blanco”, “borra el celular de la mano”, “convierte esta selfie en foto carnet”). Gemini aplica la orden en segundos y muestra la versión retocada. Si algo no convence, responde con nuevas instrucciones (“hazla más luminosa”, “añade un fondo de bosque”) y la IA encadena los cambios sin perder el historial.
El proceso es multietapa y reversible: cada paso queda registrado en la conversación, de modo que puedes volver atrás o descargar cualquier versión intermedia. Google añade una marca de agua invisible SynthID y prueba una visible (“AI” en la esquina) para señalar el origen sintético sin estropear la imagen.
Las funciones de edición cubren —por ahora— cambio de fondo, eliminación o sustitución de objetos y ajustes de estilo. Todo se hace on-device: no necesitas cuenta de pago ni pasarte a otra aplicación. En las próximas semanas la actualización llegará a más de 45 idiomas y países; solo requerirás la versión más reciente de Gemini desde Google Play.
Los nuevos avances en la academia
AMIE: la IA que conversa, hace diagnósticos y supera a médicos en pruebas simuladas
Un equipo de Google Research y DeepMind entrenó un sistema conversacional —AMIE (Articulate Medical Intelligence Explorer)— para imitar la entrevista clínica. En un estudio con 159 casos ficticios atendidos por actores-paciente, la IA obtuvo mejor precisión diagnóstica que 20 médicos de atención primaria y recibió calificaciones superiores en 30 de 32 criterios profesionales (empatía, claridad, plan de manejo, etc.).
¿Cómo aprendió? Los autores usaron grandes modelos de lenguaje y los hicieron “jugar contra sí mismos”: un agente-médico y un agente-paciente intercambiaban preguntas y respuestas; un tercer agente-crítico revisaba el diálogo, señalaba fallos y disparaba nuevas rondas de ajuste. Así generaron miles de historias clínicas sintéticas que refinaron el modelo sin depender por completo de datos reales.
Para evaluar la IA, aplicaron un estándar similar al examen OSCE que rinde un residente: diálogos por chat con tiempo límite, lista de diagnósticos diferenciales y cuestionarios de satisfacción. Especialistas independientes revisaron cada caso y—sorpresa—AMIE acertó más diagnósticos “en el top 3” que los médicos y mantuvo una comunicación que los pacientes calificaron como más empática.
Sin embargo, el estudio presento algunas limitaciones clave: todo fue en texto; no hubo exploración física ni video, y los clínicos no están habituados a chatear bajo presión.
Por ahora, AMIE no está lista para consultas reales: requiere verificación, regulación y estudios que midan sesgos de idioma, cultura y accesibilidad.
Este estudio muestra que los LLM pueden recopilar información clínica de forma estructurada, no solo responder preguntas sueltas. Un avance en esta dirección podría implicar multiplicar el acceso a orientación diagnóstica en zonas con escasez de médicos, si se integra con protocolos seguros.
Esto nos obliga a repensar la relación médico-IA: el valor diferencial puede pasar de “acertar el diagnóstico” a interpretar matices, examinar físicamente y decidir en contextos complejos.
Si te gustó esta newsletter te invitamos a suscribirte para recibir todas las semanas novedades, análisis y tips sobre todo lo nuevo que ocurre en la inteligencia artificial.
Si te interesa contactarnos, ya sea para adoptar inteligencia artificial en tu empresa, para aprender a usar los grandes modelos de lenguaje o para conocer más acerca de todo lo referido a la inteligencia artificial no dudes en comentar en este post. También puedes seguirnos en LinkedIn y en nuestra página web