Resumen de las noticias más relevantes de la semana
Google lanza DolphinGemma, una IA para descifrar la comunicación de los delfines
ChatGPT ahora recuerda tus conversaciones pasadas, ofreciendo respuestas más personalizadas y contextuales.
OpenAI presenta GPT-4.1, una nueva familia de modelos con mejoras clave en programación, seguimiento de instrucciones y uso de contexto largo.
Claude lanza "Research" y nuevos planes premium, apostando fuerte al mercado empresarial con búsqueda avanzada y mejor integración con Google Workspace.
Herramienta para maximizar el uso de la inteligencia artificial
Google presenta Firebase Studio, un entorno de desarrollo web asistido por IA que permite crear apps completas desde el navegador con lenguaje natural.
Nuevos avances científicos
Anthropic publica un estudio masivo sobre cómo estudiantes universitarios usan IA, revelando patrones y desafíos educativos profundos.
Lo que pasó esta semana
Google desarrolla DolphinGemma: IA para descifrar la comunicación de los delfines
Google ha anunciado DolphinGemma, un modelo de inteligencia artificial diseñado para analizar y potencialmente descifrar la comunicación de los delfines. Este desarrollo, presentado en colaboración con investigadores de Georgia Tech y el Wild Dolphin Project (WDP), busca avanzar en la comprensión de los patrones de comunicación de estos mamíferos marinos.
El proyecto se basa en décadas de investigación del WDP, que desde 1985 ha estudiado una comunidad específica de delfines manchados del Atlántico en las Bahamas. Esta organización ha recopilado un extenso conjunto de datos que incluye video y audio submarino, meticulosamente vinculado con identidades individuales de delfines, historias de vida y comportamientos observados.
DolphinGemma utiliza tecnologías de audio específicas de Google, como el tokenizador SoundStream, para procesar los sonidos de los delfines. El modelo, con aproximadamente 400 millones de parámetros, está optimizado para funcionar directamente en teléfonos Pixel, los cuales son utilizados por los investigadores en el campo.
A diferencia de intentos anteriores para entender la comunicación de los delfines, DolphinGemma adopta un enfoque basado en patrones similar al de los modelos de lenguaje grandes (LLM). El sistema procesa secuencias de sonidos naturales de delfines para identificar estructuras y predecir los sonidos subsiguientes en una secuencia, de manera similar a cómo los LLM predicen la siguiente palabra en una oración.
Los investigadores han logrado identificar algunos tipos específicos de comunicación entre delfines:
Silbidos de firma (nombres únicos) utilizados por madres y crías para reunirse
"Graznidos" de pulso durante peleas
"Zumbidos" de clic a menudo usados durante el cortejo o la persecución de tiburones
Paralelamente al análisis de la comunicación natural, el WDP está explorando la interacción bidireccional mediante el sistema CHAT (Cetacean Hearing Augmentation Telemetry), desarrollado en colaboración con Georgia Tech. Este sistema no busca descifrar directamente el lenguaje natural complejo de los delfines, sino establecer un vocabulario compartido más simple, asociando silbidos sintéticos con objetos específicos que disfrutan los delfines.
Google planea compartir DolphinGemma como un modelo abierto este verano. Aunque está entrenado con sonidos de delfines manchados del Atlántico, se anticipa su potencial utilidad para investigadores que estudian otras especies de cetáceos, como delfines nariz de botella o delfines giradores.
Si bien el camino para comprender plenamente la comunicación de los delfines es largo, esta colaboración entre investigación de campo, ingeniería y tecnología de IA representa un paso significativo en la búsqueda de patrones de comunicación en otras especies.
ChatGPT amplía su memoria: ahora recuerda todas tus conversaciones pasadas
OpenAI ha lanzado una actualización para ChatGPT que expande considerablemente sus capacidades de memoria. A partir de esta semana, el modelo puede acceder y referenciar todas tus conversaciones anteriores para proporcionar respuestas más personalizadas.
Sam Altman, CEO de OpenAI dijo "Esta es una característica sorprendentemente excelente en mi opinión, y apunta a algo que nos entusiasma: sistemas de IA que llegan a conocerte a lo largo de tu vida y se vuelven extremadamente útiles y personalizados".
La nueva funcionalidad permite que ChatGPT aprenda gradualmente tus preferencias e intereses, lo que facilita conversaciones más fluidas y contextuales. En lugar de tener que recordarle constantemente tus preferencias o explicarle el contexto de conversaciones anteriores, el sistema puede ahora construir sobre ese conocimiento acumulado.
Esta actualización representa un gran paso hacia asistentes de IA más adaptados a cada usuario, capaces de entender mejor los matices de tus necesidades específicas. OpenAI destaca que esta característica será especialmente útil para escribir, recibir consejos, aprender y otras tareas donde el contexto personal es importante.
Por otro lado, OpenAI ha implementado controles de privacidad para esta función. Los usuarios mantienen control total sobre la memoria de ChatGPT y pueden optar por no utilizar la referencia a chats pasados, o desactivar la memoria por completo en cualquier momento desde la configuración. Para conversaciones que prefieras mantener aisladas, existe la opción de "chat temporal" que no utilizará ni afectará la memoria del sistema.
Por ahora, esta actualización está disponible para usuarios Plus y Pro, excepto en la Unión Europea, Reino Unido, Suiza, Noruega, Islandia y Liechtenstein debido a restricciones regulatorias.
OpenAI lanza la familia de modelos GPT-4.1: Un salto adelante en programación y rendimiento
OpenAI presentó una nueva familia de modelos de IA enfocados específicamente en mejorar las capacidades de programación. Esta nueva serie, compuesta por GPT-4.1, GPT-4.1 mini y GPT-4.1 nano, representa un importante avance sobre los modelos GPT-4o, con mejoras sustanciales en áreas clave para desarrolladores.
"Estos modelos superan a GPT-4o en todos los aspectos, con avances significativos en programación y seguimiento de instrucciones", señaló OpenAI en su anuncio oficial. "También tienen ventanas de contexto más grandes, con soporte de hasta 1 millón de tokens, y pueden utilizar mejor ese contexto con una comprensión mejorada de textos extensos".
Entre las mejoras más destacadas se encuentra el rendimiento en programación. GPT-4.1 alcanza un impresionante 54.6% en SWE-bench Verified, una métrica crucial que evalúa habilidades de ingeniería de software en escenarios reales. Esto representa una mejora del 21.4% respecto a GPT-4o, aunque no llega a superar el 62.3% logrado por Claude 3.7 Sonnet en febrero.
La familia de modelos GPT-4.1 destaca en tres áreas fundamentales:
Programación: La versión principal obtiene resultados sobresalientes en tareas de codificación, especialmente en frontend, donde evaluadores humanos prefirieron los sitios web creados por GPT-4.1 sobre los de GPT-4o en el 80% de los casos.
Seguimiento de instrucciones: GPT-4.1 muestra una mejora del 10.5% en el benchmark MultiChallenge de Scale, que mide la capacidad de seguir instrucciones precisas y mantener coherencia en conversaciones extensas.
Contexto largo: Los tres modelos pueden procesar hasta 1 millón de tokens de contexto. Esta capacidad resulta crucial para analizar bases de código extensas o documentos largos.
La versión mini del modelo representa un avance importante, superando a GPT-4o en muchos benchmarks mientras reduce la latencia casi a la mitad y el costo en un 83%. Por su parte, GPT-4.1 nano es el modelo más rápido y económico jamás lanzado por OpenAI, ideal para tareas como clasificación o autocompletado.
Un detalle importante es que estos modelos estarán disponibles exclusivamente a través de la API. En ChatGPT, muchas de las mejoras en seguimiento de instrucciones, programación e inteligencia general se han ido incorporando gradualmente a la última versión de GPT-4o y seguirán integrándose en futuras actualizaciones.
Por su parte Windsurf, una aplicación para programación con IA, ha anunciado que estos modelos estarán disponibles de forma gratuita hasta el 21 de abril. Con este lanzamiento, OpenAI busca recuperar terreno en un área donde ha perdido liderazgo en los últimos meses. La comunidad siempre prefirió Claude a la hora de programar, y el nuevo modelo de Google, Gemini 2.5 Pro se consolidó como el mejor modelo de programación del momento.
La compañía también comenzará a descontinuar GPT-4.5 Preview en la API, ya que GPT-4.1 ofrece un rendimiento similar o mejorado a un costo y latencia mucho menores, dando a los desarrolladores tres meses (hasta el 14 de julio de 2025) para hacer la transición.
Claude lanza "Research" e incorpora planes premium para competir en el mercado empresarial
Anthropic ha anunciado esta semana dos nuevas funcionalidades para su modelo Claude, junto con un cambio en su estructura de precios. La compañía presentó "Research", una capacidad de búsqueda avanzada, y una integración con Google Workspace, al tiempo que introdujo un nuevo plan de suscripción "Máximo" de hasta 200 USD mensuales.
La función Research permite a Claude realizar búsquedas en la web y en documentos internos para responder preguntas de usuarios. A diferencia de una búsqueda convencional, el sistema está diseñado para explorar diferentes ángulos de una pregunta automáticamente y proporcionar respuestas con citas verificables. Esta función, disponible inicialmente en Estados Unidos, Japón y Brasil, está limitada a usuarios de los planes de pago más altos.
Por otro lado, la integración con Google Workspace conecta Claude con Gmail, Calendar y Google Docs, permitiéndole acceder a correos, calendarios y documentos para contextualizar mejor sus respuestas. Esta integración está disponible en fase beta para todos los usuarios de pago, aunque requiere la activación por parte de administradores en entornos empresariales.
Anteriormente la compañía habia anunciado el plan "Máximo" a un precio que comienza en 100 USD mensuales y puede extenderse hasta 200 USD, posicionándose por encima del plan "Pro" de 17 USD (facturado anualmente, o 20USD mensualmente). Este nuevo plan ofrece, según Anthropic, entre 5 y 20 veces más uso que el plan Pro, además de límites más altos para obtener respuestas, prioridad durante períodos de alto tráfico y acceso temprano a nuevas funcionalidades (como las mencionadas anteriormente).
Esta estrategia de precios refleja una clara orientación hacia el mercado empresarial y profesional de alto volumen, alejándose del usuario casual. Anthropic parece seguir así los pasos de OpenAI, que también han establecido diferentes niveles de servicio con precios escalonados.
El lanzamiento de estas características y el nuevo nivel de precios ocurre en un momento de intensa competencia en el sector de los grandes modelos de lenguaje, donde las empresas buscan diferenciarse no solo por las capacidades de sus modelos, sino también por las herramientas adicionales que pueden ofrecer a usuarios profesionales y corporativos.
La compañía ha indicado que en las próximas semanas continuará expandiendo tanto el alcance de sus fuentes de contenido como las capacidades de investigación de Claude, en lo que parece ser una estrategia de lanzamientos progresivos.
Un uso práctico para la inteligencia artificial
Firebase Studio: Google lanza un entorno de desarrollo web con asistencia de IA
Google presentó oficialmente Firebase Studio, un entorno de desarrollo basado en la nube que permite construir aplicaciones web completas desde el navegador. Anunciado durante Google Cloud Next 2025 la semana pasada, esta herramienta combina un IDE completo con asistencia de IA y una profunda integración con los servicios de Firebase.
Firebase Studio es esencialmente una evolución y rebrandeo del anterior Project IDX de Google. La herramienta, disponible en studio.firebase.google.com, funciona completamente en el navegador y elimina la necesidad de configurar entornos locales de desarrollo.
El componente más destacado de Firebase Studio es su "Agente de Prototipado", que permite a los desarrolladores describir en lenguaje natural la aplicación que desean crear. El sistema utiliza Gemini, el modelo de lenguaje de Google, para generar automáticamente un prototipo funcional basado en esa descripción. Los usuarios pueden luego realizar modificaciones adicionales mediante comandos en lenguaje natural o editando directamente el código.
El flujo de trabajo típico comienza con una descripción textual como "Una aplicación de recetas que genera platos basados en los ingredientes que tengo en mi refrigerador". Firebase Studio genera un esquema inicial y, una vez aprobado, produce una aplicación completa con frontend y backend funcionales. El sistema también permite la implementación directa a Firebase Hosting con un solo clic.
A diferencia de la consola de Firebase tradicional, que se centra en la gestión de proyectos y configuraciones, Firebase Studio está diseñado específicamente para el desarrollo activo de código. Esto incluye escritura, pruebas y vista previa de aplicaciones, todo desde el mismo entorno.
Entre los casos de uso que Google propone para esta herramienta se encuentran:
Prototipado rápido de ideas de aplicaciones
Demostraciones funcionales para clientes
Entornos educativos sin necesidad de instalaciones
Proyectos de desarrolladores individuales y hackathones
Colaboración entre equipos de frontend y backend
Actualmente, Firebase Studio se encuentra en fase de vista previa y ofrece un nivel gratuito para los desarrolladores, con límites de 3 espacios de trabajo por usuario sin costo. Los miembros del Programa de Desarrolladores de Google obtienen 10 espacios de trabajo, mientras que los miembros Premium reciben 30.
Es importante destacar que aunque la herramienta en sí es gratuita durante la fase de vista previa, el despliegue de aplicaciones requiere una cuenta vinculada de Firebase con el plan Blaze (pago por uso). Además, el uso intensivo de la asistencia de IA de Gemini más allá de las cuotas gratuitas podría generar cargos adicionales.
Esta iniciativa de Google representa un avance en la tendencia hacia entornos de desarrollo basados en la nube con asistencia de IA integrada, compitiendo con propuestas similares como Replit, Cursor y otras soluciones emergentes en el mercado.
Los nuevos avances en la academia
Estudio de Anthropic revela cómo los estudiantes universitarios utilizan la IA
Anthropic, la empresa creadora de Claude, ha publicado un estudio sobre el uso real de la inteligencia artificial en entornos educativos. A diferencia de investigaciones anteriores basadas principalmente en encuestas y experimentos controlados, este análisis examinó un millón de conversaciones anónimas de estudiantes universitarios con Claude, proporcionando una visión sin precedentes sobre cómo se está utilizando la IA en la educación superior.
El estudio, titulado "Anthropic Education Report", revela varios patrones. Uno de los hallazgos más destacados es que los estudiantes de STEM son los primeros adoptantes de herramientas de IA como Claude, con una representación desproporcionada de estudiantes de Ciencias de la Computación, que constituyen el 36.8% de las conversaciones analizadas pese a representar solo el 5.4% de los títulos universitarios en EE.UU. Por el contrario, los estudiantes de Negocios, Salud y Humanidades muestran tasas de adopción más bajas en relación con sus números de matriculación.
La investigación identificó cuatro patrones principales de interacción que los estudiantes mantienen con la IA, presentes en proporciones similares (entre 23% y 29% cada uno):
Resolución Directa de Problemas: Búsqueda de soluciones específicas con mínima interacción.
Creación Directa de Contenido: Solicitud de generación de ensayos, resúmenes u otros productos.
Resolución Colaborativa de Problemas: Diálogo interactivo para encontrar soluciones.
Creación Colaborativa de Contenido: Trabajo conjunto para desarrollar contenidos.
Un aspecto particularmente interesante es que los estudiantes utilizan principalmente sistemas de IA para tareas cognitivas de orden superior según la Taxonomía de Bloom. El 39.8% de las interacciones involucraban "Crear" (usar información para generar algo nuevo) y el 30.2% "Analizar" (descomponer información y establecer relaciones). Esto plantea interrogantes sobre si los estudiantes están delegando en la IA precisamente aquellas habilidades cognitivas que deberían estar desarrollando.
El estudio también encontró variaciones significativas entre disciplinas. Los estudiantes de Ciencias Naturales y Matemáticas tienden a usar la IA para resolución de problemas, mientras que los de Educación muestran una fuerte preferencia por la creación de contenido (74.4% de sus conversaciones). Las disciplinas de STEM en general prefieren enfoques colaborativos, mientras que Humanidades, Negocios y Salud se dividen más equitativamente entre interacciones directas y colaborativas.
Aunque el estudio no puede determinar con precisión cuántos estudiantes utilizan la IA para hacer trampa, identificó algunos usos preocupantes, como solicitar respuestas directas a preguntas de exámenes de opción múltiple o reescribir textos para evitar la detección de plagio. Casi la mitad (47%) de las conversaciones estudiante-IA eran directas, es decir, buscando respuestas o contenido con mínima participación, lo que plantea cuestiones importantes sobre la integridad académica.
Los investigadores reconocen las limitaciones del estudio, incluyendo que probablemente captura principalmente a los primeros adoptantes y representa solo una visión parcial del uso general de la IA en educación. También señalan que no pueden determinar cómo utilizan finalmente los estudiantes las respuestas de la IA en su trabajo académico.
Este análisis llega en un momento crítico para la educación superior, cuando instituciones de todo el mundo están luchando por adaptar sus políticas y prácticas a la realidad de la IA generativa. Las preguntas fundamentales que surgen incluyen cómo garantizar que los estudiantes sigan desarrollando habilidades cognitivas fundamentales, cómo redefinir las políticas de evaluación y trampa en un mundo habilitado por IA, y cómo podría cambiar el aprendizaje significativo cuando los sistemas de IA pueden generar instantáneamente ensayos pulidos o resolver problemas complejos.
Como respuesta a estos desafíos, Anthropic está experimentando con un "Modo de Aprendizaje" que enfatiza el método socrático y la comprensión conceptual en lugar de respuestas directas, y está colaborando con universidades para comprender mejor el papel de la IA en la educación.
Si te gustó esta newsletter te invitamos a suscribirte para recibir todas las semanas novedades, análisis y tips sobre todo lo nuevo que ocurre en la inteligencia artificial.
Si te interesa contactarnos, ya sea para adoptar inteligencia artificial en tu empresa, para aprender a usar los grandes modelos de lenguaje o para conocer más acerca de todo lo referido a la inteligencia artificial no dudes en comentar en este post. También puedes seguirnos en LinkedIn y en nuestra página web