Claude amplió su sistema de memoria poniéndolo disponible para todos los usuarios, incluso en el plan gratuito, y lanzó una herramienta de importación que permite llevar preferencias, contexto y recuerdos desde otros asistentes como ChatGPT, Gemini o Copilot directamente a su memoria. Esto simplifica el cambio de plataforma y mejora la continuidad en conversaciones.
Reseña 03/03/2026
Seedream actualizó su modelo a la versión 5.0 incorporando mejoras en generación nativa en alta resolución, mayor fidelidad a prompts complejos y edición conversacional iterativa. La nueva versión optimiza el realismo, la composición de múltiples elementos y el control creativo, reforzando su enfoque en producción visual de calidad profesional.
Reseña 28/02/2026
Sora amplió su despliegue con una nueva generación orientada a mejorar el realismo físico, la coherencia narrativa y la sincronización audiovisual en videos generados por inteligencia artificial. La actualización incorpora mayor control creativo y optimización en escenas complejas, consolidando su enfoque en producción audiovisual con calidad cinematográfica.
Reseña 28/02/2026
LALAL.AI amplió su ecosistema con mejoras en su API para desarrolladores, facilitando la integración de separación de stems y procesamiento de audio en aplicaciones externas. La actualización optimiza precisión y rendimiento en la extracción de voces e instrumentos, reforzando su enfoque en soluciones técnicas para creadores y entornos profesionales.
Reseña 26/02/2026
Hailuo actualizó su ecosistema con la versión 2.3 Pro y nuevas mejoras en su aplicación móvil. La actualización incorpora mayor realismo en movimiento, mejor interpretación de prompts y calidad visual más cinematográfica, además de optimizaciones de estabilidad y rendimiento, reforzando su posicionamiento en generación de video con enfoque profesional.
Reseña 26/02/2026
Nano Banana actualizó su modelo con una nueva versión que mejora la calidad de imagen, la consistencia de sujetos y la fidelidad a prompts complejos. Incorpora renderizado en alta resolución, mejor tratamiento de múltiples objetos y mayor precisión en la generación de texto dentro de imágenes, reforzando su enfoque en realismo y control creativo.
Reseña 25/02/2026
Qwen actualizó su ecosistema con la serie 3.5 y nuevas variantes especializadas, incorporando mejoras en razonamiento, planificación agéntica y comprensión contextual. Sumó un modelo optimizado para programación y otro orientado a mayor velocidad y eficiencia, ampliando su segmentación entre rendimiento avanzado, tareas técnicas y entornos de alto volumen.
Reseña 24/02/2026
Anthropic ha anunciado hoy la disponibilidad global de la inferencia regional y el sistema de "fine-grained streaming" para la serie Claude 4.6. Esta actualización técnica permite una entrega de datos más rápida y estable, optimizando la latencia según la ubicación geográfica del usuario. La mejora es crítica para aplicaciones empresariales que requieren respuestas en tiempo real y una gestión de contexto de alta fidelidad.
Reseña 19/02/2026
Google ha renovado la interfaz de la app de Gemini, priorizando la accesibilidad mediante un nuevo sistema de jerarquía visual y botones de acción directa. Paralelamente, se completó una consolidación técnica masiva al retirar modelos experimentales de 2025. Este movimiento unifica el ecosistema bajo la arquitectura Gemini 3, garantizando mayor estabilidad, seguridad y coherencia en el servicio para todos los usuarios.
Reseña 19/02/2026
ElevenLabs ha lanzado Eleven v3 junto a la versión definitiva de Multilingual v2, optimizando la expresividad emocional y reduciendo la latencia. Con soporte nativo para 30 idiomas, esta actualización mejora la fidelidad en la clonación de voz e incorpora nuevas medidas de seguridad críticas. Estas innovaciones facilitan el doblaje profesional y la creación de agentes de voz realistas, garantizando un despliegue global de contenido seguro y de alta calidad.
Reseña 18/02/2026
ByteDance ha presentado Seedance 2.0 (Seed 2.0), un modelo multimodal que revoluciona la creación de video. La actualización permite generar visuales y audio nativo sincronizado en un solo proceso, logrando que los efectos de sonido y la música ambiente se adapten perfectamente al movimiento de la escena. Además, introduce herramientas de edición por prompts que facilitan la corrección granular de elementos específicos en el clip.
Reseña 14/02/2026
Suno ha implementado una actualización crítica en sus términos de servicio y política de privacidad. La principal novedad es la categoría "Interactive Chat Information", que regula el uso de datos generados en las nuevas herramientas de creación basadas en chat. Este cambio busca dar transparencia al entrenamiento de los modelos V5 y establecer un marco legal claro para los derechos de comercialización de los usuarios en 2026.
Reseña 14/02/2026
Microsoft ha lanzado el Modo Agente para Copilot dentro del ecosistema Microsoft 365. Esta actualización transforma la asistencia básica en una edición guiada en Word, Excel y PowerPoint. La nueva capacidad permite que la IA ejecute cambios estructurales y refinamientos de contenido de forma iterativa, manteniendo la transparencia sobre las modificaciones realizadas y permitiendo el "grounding" de datos en notebooks personalizados.
Reseña 14/02/2026
GLM-5 es la quinta generación de modelos de IA desarrollada por Zhipu AI que irrumpió en la escena con acceso via API y pesos abiertos bajo licencia MIT, presentando un salto en capacidad y rendimiento. Diseñado con arquitectura Mixture-of-Experts y un contexto extremadamente amplio, ofrece avances significativos en razonamiento, generación de código y tareas agentes, posicionándose como una alternativa de código abierto a modelos líderes en el mercado
Reseña 13/02/2026
MiniMax M2.5 es una actualización destacada del modelo de IA de MiniMax Group que incorpora una arquitectura Mixture-of-Experts optimizada para tareas productivas, incluida programación, uso de herramientas y búsquedas eficientes. M2.5 ofrece mejoras sustanciales en eficiencia y rendimiento frente a generaciones anteriores, logrando marcadores competitivos en benchmarks de código con altos niveles de eficiencia y menor costo de operación, y ampliando su adopción global en escenarios empresariales y de desarrollo.
Reseña 13/02/2026
La plataforma ha integrado el modelo Claude Opus 4.6 en su agente de navegación Comet, elevando significativamente la capacidad de análisis de datos en tiempo real. Asimismo, la aplicación para Android ha sido actualizada con gráficos financieros dinámicos y un motor de memoria mejorado que optimiza el recuerdo de contextos previos en un 95%, facilitando investigaciones complejas y seguimientos de mercado de alta precisión.
Reseña 13/02/2026
OpenAI ha ejecutado una actualización iterativa sobre el modelo GPT-5.2 para optimizar la síntesis de información. El ajuste se centra en la capacidad del modelo para generar respuestas más directas y concisas, eliminando redundancias en tareas de resumen técnico y mejorando el tiempo de respuesta en dispositivos móviles.
Reseña 12/02/2026
OpenAI ha ejecutado una actualización iterativa sobre el modelo GPT-5.2 para optimizar la síntesis de información. El ajuste se centra en la capacidad del modelo para generar respuestas más directas y concisas, eliminando redundancias en tareas de resumen técnico y mejorando el tiempo de respuesta en dispositivos móviles.
Reseña 10/02/2026
Se ha anunciado el lanzamiento oficial de Kling 3, ampliando la capacidad de generación de video hasta los 3 minutos de duración con extensiones de alta fidelidad. La actualización introduce un nuevo sistema de créditos diarios y una mejora crítica en la consistencia de personajes a través de múltiples tomas. Este avance posiciona a la herramienta como una de las opciones más robustas para la producción de narrativa visual de formato largo.
Reseña 10/02/2026
Google ha comenzado las pruebas de integración de Personal Intelligence dentro de NotebookLM. Esta funcionalidad permite que la IA aprenda de las interacciones previas y los hábitos de toma de notas del usuario para ofrecer sugerencias más alineadas con sus objetivos específicos. A diferencia de otras implementaciones, esta mejora se mantiene contenida dentro de la actividad interna de la aplicación, priorizando la privacidad de los datos.
Reseña 09/02/2026
La plataforma de búsqueda ha lanzado una versión mejorada de su función "Deep Research", potenciada por el nuevo Model Council. Esta actualización permite al motor de búsqueda contrastar fuentes en tiempo real con mayor rigor, ofreciendo reportes de investigación más profundos y con una verificación de datos automatizada de nivel académico.
Reseña 05/02/2026
Anthropic ha presentado Claude Opus 4.6, destacándose por una ventana de contexto ampliada a un millón de tokens. La principal innovación técnica es su sistema de "compactación de contexto", que permite mantener la coherencia en hilos de conversación extremadamente largos sin pérdida de precisión, optimizando la memoria operativa del modelo.
Reseña 05/02/2026
OpenAI ha optimizado su plataforma integrando un sistema de marcadores para flujos de trabajo y un modo de emulación para desarrolladores. Paralelamente, el lanzamiento de GPT-5.3-Codex establece un nuevo estándar en la generación de código y gestión de agentes autónomos, mejorando la resolución de arquitecturas de software complejas y la eficiencia en la corrección de errores técnicos en tiempo real.
Reseña 05/02/2026
Google ha lanzado nuevas capacidades agénticas para Gemini en sistemas operativos móviles. Esta actualización permite que la IA ejecute acciones directas dentro de diversas aplicaciones, automatizando tareas de gestión y organización de calendarios. El avance representa un salto desde la asistencia informativa hacia la ejecución autónoma de procesos en el entorno digital del usuario.
Reseña 04/02/2026
OpenAI ha anunciado el retiro oficial de sus modelos "Legacy", incluyendo las versiones anteriores de GPT-4o, tanto en su interfaz web como en aplicaciones móviles. Esta transición marca el paso definitivo hacia la arquitectura de la serie GPT-5.2, optimizando los recursos de cómputo hacia modelos con capacidades de razonamiento superior y mayor velocidad de respuesta.
Reseña 29/01/2026
Se ha completado la integración profunda de Gemini en el panel lateral de Google Workspace. Esta mejora permite que la inteligencia artificial interactúe directamente con el ecosistema de Gmail y Drive, facilitando el resumen de hilos de correo extensos y la generación de borradores complejos en Docs. La actualización potencia la eficiencia operativa al evitar el cambio entre pestañas.
Reseña 29/01/2026
OpenAI ha implementado una mejora en el modelo GPT-5.2 enfocada en la optimización del tono del sistema. La actualización refina el "system prompt" para ofrecer interacciones más fluidas y naturales, reduciendo estructuras excesivamente mecánicas. El objetivo es mejorar la experiencia de usuario en tareas de redacción creativa y asistencia técnica diaria sin perder precisión.
Reseña 22/01/2026
La plataforma de generación de imágenes ha implementado su actualización de Dynamic Lighting. Esta nueva función permite un control avanzado sobre la incidencia de la luz y el realismo de las sombras en modelos Lucid. La mejora técnica está orientada a fotógrafos y diseñadores que requieren un acabado cinematográfico y menos texturas sintéticas, permitiendo ajustes granulares en la iluminación global de la escena generada.
Reseña 20/01/2026
Runway ha consolidado su liderazgo en la generación de video con el despliegue global de Gen-4 Turbo. Esta actualización optimiza la velocidad de procesamiento, permitiendo generar clips con coherencia de movimiento en menos de 5 segundos. La mejora reduce significativamente las distorsiones en rostros y manos, estableciendo un flujo de trabajo más eficiente para la postproducción publicitaria y la creación de contenido corto.
Reseña 12/01/2026
Google ha iniciado el año con una actualización estratégica de su infraestructura. La API de Gemini ahora permite el procesamiento de archivos de hasta 100 MB, superando el límite previo de 20 MB. Este cambio facilita el manejo de grandes volúmenes de datos y precede al retiro programado de modelos antiguos, consolidando a Gemini 3 como el estándar operativo para desarrolladores y empresas.
Reseña 15/01/2026
Kling AI de Kuaishou presenta Kling Video 2.6, con generación audiovisual simultánea que sincroniza video, voz, efectos sonoros y ambientes en una sola pasada desde texto o imagen. Produce clips de hasta 10 segundos en chino e inglés, con audio limpio y semántica robusta. Incluye Motion Control para copiar acciones y expresiones, más Voice Control, eliminando postproducción manual y acelerando flujos creativos en publicidad y redes sociales.
Reseña 24/12/2025
Qwen de Alibaba lanza Qwen3-TTS: nuevos modelos para clonación y diseño de voz realista. Estas actualizaciones mejoran la síntesis multimodal, ideal para asistentes virtuales y contenido auditivo personalizado.
Reseña 23/12/2025
Kimi AI de Moonshot lanza K2 Thinking: modelo de razonamiento avanzado con 32B parámetros activos, enfocado en codificación, matemáticas y tareas agenticas autónomas de múltiples pasos. Mejora la visión inteligente para análisis de imágenes, destacando estabilidad en herramientas secuenciales.
Reseña 23/12/2025
Manus AI lanza Manus 1.6 con máximo rendimiento, desarrollo móvil y Design View para apps fluidas. Incluye Manus Academy con conectores para proyectos autónomos, y generación interactiva de imágenes. Estas mejoras fortalecen la ejecución compleja de tareas sin supervisión.
Reseña 23/12/2025
Z.ai presenta GLM-4.7, un modelo open-source que mejora capacidades de codificación y razonamiento, con rendimiento líder en benchmarks clave y optimización para workflows de desarrollo reales. Complementan las novedades GLM-ASR-2512, enfocado en reconocimiento de voz, y GLM-4.6V, con ventana de contexto de 128K tokens. Estas actualizaciones fortalecen aplicaciones en proyectos de IA.
Reseña 22/12/2025
Google presentó Antigravity, un editor de código "Agent-First" impulsado por Gemini 3 Pro. La plataforma permite a los desarrolladores delegar tareas de programación complejas a agentes de IA que actúan en el editor, terminal y navegador.
Está disponible en vista previa pública gratuita para acelerar radicalmente el desarrollo de software.
Reseña 24/11/2025
Genspark presentó en noviembre de 2025 su espacio de trabajo AI todo en uno que automatiza tareas como creación de presentaciones, diseño gráfico, gestión de emails y colaboración en tiempo real con equipos. Incluye acceso ilimitado a modelos avanzados y nuevos generadores de video e imágenes, facilitando producción rápida y eficiente para profesionales y empresas.
Reseña 20/11/2025
NotebookLM ahora procesa hasta 1 millón de tokens, ocho veces más que antes, y puede analizar simultáneamente más de 300 archivos. Su memoria de conversación es seis veces más extensa, permitiendo sesiones largas con conservación del contexto. Incluye historial de chats guardados para retomarlos y nuevas funciones visuales con Nano Banana, generando imágenes y videos narrados para mejorar la comprensión.
Reseña 19/11/2025
DALL-E 3 mejora notablemente la generación de imágenes gracias a su integración con ChatGPT, eliminando la necesidad de pulir indicaciones para obtener resultados precisos y detallados. Presenta avances en comprensión semántica, texto legible en imágenes y realismo en detalles humanos. Sin embargo, OpenAI anunció su deprecación progresiva con retiro planificado para mayo de 2026, siendo reemplazado por el modelo GPT-Image-1 que ofrece nuevas capacidades y mejor integración con ChatGPT.
Reseña 19/11/2025
Claude AI presentó su modelo Sonnet 4.5, destacándose por su alta precisión, rapidez y capacidad para coordinar múltiples sub-agentes en paralelo para tareas complejas. Integró funcionalidades avanzadas para productividad, conectándose con Microsoft 365, SharePoint y OneDrive para facilitar consultas en documentos y mejorar flujos de trabajo empresariales. Además, agregó 'Skills', scripts personalizables para tareas específicas y mejoró la búsqueda empresarial, centralizando datos en departamentos como marketing y comunicación.
Reseña 18/11/2025
Gemini añadió integración en tiempo real con Google Search, mejorando el entendimiento de consultas complejas para ofrecer resultados más precisos y relevantes. Incorporó generación dinámica de interfaces visuales con herramientas interactivas y simulaciones personalizadas que enriquecen la experiencia de usuario. También lanzó el plan premium Google AI Ultra, brindando acceso anticipado a funciones avanzadas y mayor capacidad de uso.
Reseña 18/11/2025
Meta AI comenzará a usar las interacciones de los usuarios con su IA generativa para personalizar recomendaciones y anuncios en Facebook, Instagram y otras plataformas. Esto permitirá sugerencias más relevantes basadas en conversaciones con la IA, mejorando la experiencia personalizada y mostrando contenido de mayor interés para cada usuario, con despliegue progresivo desde diciembre de 2025.
Reseña 17/04/2025
Kimi AI lanzó la versión 1.5 en noviembre de 2025, incorporando funcionalidades avanzadas como razonamiento multimodal, capacidad para procesar texto e imágenes simultáneamente, y mejorar la gestión de grandes volúmenes de datos con memoria para hasta 128.000 palabras en una conversación. Además, ahora puede analizar documentos en formatos como Word y PowerPoint, y resolver problemas complejos de matemática y lógica, ofreciendo un rendimiento competitivo y gratuito.
Reseña 15/11/2025
ChatGPT lanzó la versión 5.1 en noviembre de 2025, incorporando mejoras en razonamiento, velocidad y nuevas funciones colaborativas como chats grupales, personalización de respuestas y mayor precisión en tareas complejas, consolidando su posición como referente en asistentes basados en inteligencia artificial.
Reseña 14/11/2025
Microsoft Copilot mejoró significativamente su integración en Microsoft 365, incorporando agentes personalizados y mejor manejo de archivos grandes que optimizan flujos de trabajo. Destacan nuevas funciones en Teams para reuniones más eficientes, edición interactiva en Word y navegación avanzada en Copilot Chat. Estas actualizaciones facilitan la productividad y colaboración con IA avanzada.
Reseña 11/11/2025
Perplexity AI mejoró sus funciones con la integración de Perplexity Pro+, que ofrece modelos avanzados para búsquedas académicas y empresariales. Introdujo mapas de conocimiento dinámicos para explorar temas en profundidad y fact-checking automático en tiempo real. Además, amplió su capacidad para análisis avanzados, generación de informes y proyectos personalizados para suscriptores premium.
Reseña 08/11/2025
Tencent lanzó en octubre su modelo de generación de imágenes Hunyuan 3.0, una herramienta de inteligencia artificial que se distingue por su capacidad de razonamiento avanzado. Este sistema no solo crea imágenes, sino que comprende instrucciones complejas y aplica conocimiento del mundo real para generar composiciones visuales coherentes y de alta calidad, incluso con texto preciso
Reseña 23/10/2025
DeepSeek ha lanzado su nuevo modelo experimental DeepSeek-V3.2-Exp, que introduce la tecnología de atención dispersa (DSA). Esta innovación permite procesar documentos extensos y conversaciones largas con mayor eficiencia, reduciendo los costos operativos a la mitad mientras mantiene altas capacidades de razonamiento. El modelo unifica los modos de chat y razonamiento en una sola arquitectura, representando un avance significativo en el desarrollo de IA más accesible y potente.
Reseña 19/10/2025
Midjourney recibió una actualización, consolidando mejoras en la versión 7. Se incorpora el modo borrador para generación rápida, el sistema “Omni Reference” para combinar estilos y estructuras, y nuevos parámetros flexibles. Mejora la precisión en anatomía, texturas y coherencia visual, con mayor control creativo y realismo
Reseña 17/10/2025
NotebookLM recibió una gran actualización en con soporte para el modelo Gemini Nano Banana. Ahora genera “Video Overviews” con resúmenes explicativos e ilustraciones automáticas en seis estilos visuales, integra PDF y YouTube desde móvil, mejora la conexión con Google Drive y añade modos de colaboración y respuestas interactivas por IA personalizadas.
Reseña 16/10/2025
Grok de xAI ( lanzó varias actualizaciones importantes, incluyendo nuevos modelos de razonamiento rápido como grok-4-fast-reasoning y grok-code-fast-1 para codificación avanzada. Grok también mejoró su capacidad para personalizar y ajustar el feed de contenido en la red social X, leyendo y analizando más de 100 millones de publicaciones y videos diarios para ofrecer una experiencia personalizada y eficiente. Este mes, Grok superó ChatGPT en el uso de API gracias a su velocidad y capacidades en automatización y programación.
Reseña 15/10/2025
Gemini lanza “September Drop”: Google presentó nuevas funciones en Gemini: el modelo Nano Banana para edición de imágenes, Gemini Live con guía visual en tiempo real, integración de Gemini con Chrome en escritorio (resúmenes y uso del contexto de pestañas), posibilidad de compartir “Gems” personalizados, y creación visual de apps en Canvas sin necesidad de codificación.
Reseña 22/09/2025
ChatGPT lanza nuevas mejoras: OpenAI introduce el modelo GPT-5-Codex, optimizado para codificación, disponible desde el 15 de septiembre para tareas en Codex.
Además, el 18 de septiembre se mejoró la latencia y calidad de Advanced Voice Mode con GPT-4o mini.
Reseña 20/09/2025
ByteDance lanzó Seedream 4.0 en septiembre de 2025, un modelo de IA que genera imágenes 2K ultrarrápidas con gran realismo y fidelidad en solo 1.8 segundos. Su avanzada tecnología ofrece edición precisa mediante lenguaje natural y soporte multimodal, posicionándose como una opción superior a Gemini 2.5, con capacidades expandidas para creadores y empresas. Integrado en plataformas como Freepik, revoluciona la creación visual.
Reseña 18/09/2025
Hailuo AI ha actualizado su modelo a la versión Hailuo 02, que ahora permite la creación de videos en 512p. La nueva versión promete una generación de video un 40% más rápida y una reducción del 50% en el coste por generación, logrando un mejor equilibrio entre velocidad y detalle visual
Reseña 15/09/2025
HeyGen ha lanzado una importante actualización que introduce avatares de cuerpo completo más realistas, con gestos dinámicos y microexpresiones mejoradas. La plataforma también ha mejorado sus herramientas de diseño de voz y ha ampliado las capacidades para empresas, ofreciendo una creación de video más expresiva y escalable
Reseña 20/08/2025
La última novedad de la herramienta Qwen en su interfaz es el lanzamiento de Qwen Image Edit, un sistema avanzado que permite editar imágenes con precisión semántica y de apariencia. Destaca por su capacidad para editar texto en inglés y chino manteniendo fidelidad tipográfica, su arquitectura híbrida que combina codificador semántico y autoencoder variacional, y su accesibilidad a través de demo web, API y código abierto, facilitando usos comerciales y creativos con alta precisión.
Reseña 19/08/2025
Nano Banana AI, la nueva herramienta revolucionaria desarrollada por Google, es un avanzado generador y editor de imágenes impulsado por inteligencia artificial. Permite transformar fotografías con indicaciones en lenguaje natural, realizando ediciones complejas y rápidas sin perder coherencia visual. Esta novedad promete revolucionar la edición de imágenes, ofreciendo a fotógrafos y creativos resultados profesionales con tecnología de última generación.
Reseña 18/08/2025
Google lanzó su edición “August Drop”, incorporando nuevas funciones en Gemini para estudiantes como Guided Learning (ayuda paso a paso con imágenes, tests interactivos y más), generación de storybook ilustrados, Deep Think para razonamiento avanzado en suscriptores Ultra, junto a Personal Context (recuerda chats previos) y Temporary Chats (conversaciones que no se guardan).
Reseña 17/08/2025
OpenAI lanzó ChatGPT-5, una actualización significativa que integra capacidades multimodales para procesar texto, imágenes, audio y video simultáneamente. Ofrece mejor razonamiento, mayor rapidez y precisión, y una memoria mejorada con una ventana de contexto de hasta 256.000 tokens, permitiendo seguir conversaciones largas. El modelo también se presenta en tres versiones: estándar, mini y nano, para diferentes necesidades y recursos. Está diseñado para ser más útil, personalizado y potente para usuarios y empresas.
Reseña 07/08/2025
Google lanzó la beta pública de Opal, una herramienta sin código que crea mini aplicaciones web rápidamente a partir de indicaciones en lenguaje natural. Permite diseñar flujos de trabajo visuales editables, integrando IA para automatizar procesos. Está disponible solo en EE.UU. y facilita que los usuarios sin experiencia programen aplicaciones funcionales para diversos usos, compartiendo enlaces para probarlas con cuenta Google
Reseña 05/08/2025
La última actualización de GLM-4.5 introduce razonamiento multimodal avanzado (texto+imagen+voz) y soporte para 200K tokens de contexto, duplicando su capacidad de análisis de documentos largos. Optimizado para precisión en tareas técnicas y financieras, reduce errores en un 30% e incluye un nuevo modo seguro proactivo para contenido sensible. ¡Ahora con soporte en 12 idiomas!
Reseña 04/08/2025
Google lanza una potente actualización para NotebookLM. La nueva función "Video Overviews" permite a los usuarios transformar sus documentos y notas en videos dinámicos con narración y diapositivas, simplificando la comprensión de información compleja. Esta herramienta, admite múltiples resultados (videos, resúmenes y guías de estudio) en un solo cuaderno, por lo que se presenta como la solución ideal para estudiantes, profesionales e investigadores que buscan optimizar su flujo de trabajo y aprovechar el potencial de la inteligencia artificial para organizar y compartir conocimiento de forma más eficiente.
Reseña 01/08/2025
DeepSeek lanza su versión V3.5, con un 50% más de precisión en comprensión de código y soporte para 10 lenguajes adicionales. Nueva función de "búsqueda semántica profunda" para hallar información técnica compleja en segundos. Optimizado para empresas y desarrolladores. ¡Más rápido, más preciso!
Reseña 29/07/2025
OpenAI presenta GPT-5 Turbo, su modelo más rápido y eficiente hasta ahora. Con memoria contextual de 500K tokens, razonamiento en tiempo real y soporte para multimodalidad nativa (texto, voz e imágenes), ofrece respuestas más precisas y reducción de alucinaciones en un 40%. Ideal para desarrolladores y empresas.
Reseña 28/07/2025
La nueva actualización de Perplexity "Live Search" integra búsqueda en vivo con verificación automática de fuentes, respuestas instantáneas basadas en eventos actuales y resúmenes con citas precisas. Ahora con modo colaborativo para equipos.
Reseña 20/07/2025
Anthropic presenta Claude 4.5, con contexto extendido a 1M tokens, análisis preciso de documentos largos y razonamiento multimodal avanzado. Optimizado para productividad, reduce alucinaciones un 60% y ofrece respuestas más matizadas. ¡Ahora con soporte en 15 idiomas!
Reseña 19/07/2025
Stability AI lanzó Stable Diffusion 4, con renderizado 8K ultrarealista, mayor coherencia en escenas complejas y un 40% menos de distorsiones. Incluye un nuevo modo de edición no destructiva y soporte para animaciones. Optimizado para hardware modesto, democratiza aún más la creación con IA
Reseña 18/07/2025
xAI lanzó Grok 4 y su versión avanzada Grok 4 Heavy, con razonamiento mejorado, capacidades multimodales y acceso web en tiempo real; superó a modelos líderes en pruebas académicas como ARC‑AGI‑2, y se introdujo el plan premium SuperGrok Heavy; el debut generó controversia por contenidos previos no moderados, lo que impulsó nuevas políticas de control en la plataforma.
Reseña 09/07/2025
HeyGen mejoró la calidad de los avatares con microexpresiones y gestos dinámicos, lanzó “Product Placement” para integrar productos con sincronización labial realista, y añadió edición avanzada en AI Studio desde guiones sin necesidad de líneas de tiempo.
Reseña 27/06/2025
Microsoft Copilot estrenó Copilot Studio para crear agentes personalizados sin código, inauguró la Tienda de Agentes para acceder a soluciones listas, introdujo Copilot Notebooks con resúmenes en audio y mejoró la personalización basada en las preferencias del usuario.
Reseña 26/06/2025
Udio lanzó “Sessions”, una estación de trabajo visual avanzada que permite reordenar y editar canciones con precisión impulsada por IA, ofreciendo un mayor control creativo a los músicos independientes.
Reseña 24/06/2025
Google lanzó Gemini 2.5 Pro, su IA más avanzada, con 82.2 % de precisión en generación de código, mejor razonamiento y análisis de videos de hasta 8 h. Incorpora “presupuestos de pensamiento” para optimizar recursos. Ya disponible en Google AI Studio y Vertex AI, pronto llegará a más usuarios.
Reseña 06/06/2025
Google presentó Stitch en Google I/O 2025, una herramienta de IA basada en Gemini 2.5 que transforma descripciones o imágenes en diseños de interfaz y código frontend funcional. Permite iterar conversacionalmente y exportar a HTML/CSS o Figma. Disponible gratis en Google Labs con límites mensuales, facilita y acelera el diseño de apps para todos.
Reseña 26/05/2025
Claude AI se actualizó con un modo de voz gratuito en su app móvil para conversaciones más naturales. Claude 4 mejora razonamiento, programación y mantiene contexto por más tiempo. Ahora incluye búsqueda web en tiempo real y una versión especial para uso gubernamental, marcando un avance importante en IA conversacional.
Reseña 24/05/2025
Google presentó Veo 3 en I/O 2025, un modelo de IA que genera videos realistas con audio integrado desde texto o imágenes. Disponible para suscriptores Pro y Ultra en EE.UU. y 71 países, ofrece calidad cinematográfica con sincronización labial y física realista. Este avance en IA audiovisual también genera preocupación por posibles usos maliciosos.
Reseña 23/05/2025
Google lanzó la app móvil de NotebookLM, su IA para organizar datos en cuadernos digitales, generar resúmenes, consultar info como chatbot y crear pódcasts. Disponible para Android, sincroniza proyectos con la versión web y ofrece una interfaz intuitiva, ampliando el acceso para usar cuadernos inteligentes desde cualquier lugar.
Reseña 20/05/2025
OpenAI lanzó Codex, un agente de IA que escribe, depura y automatiza código desde instrucciones en lenguaje natural. Codex impulsa herramientas como GitHub Copilot y ahora está integrado en ChatGPT para usuarios Pro, Team y Enterprise, funcionando como un “ingeniero junior” que colabora en tiempo real con programadores.
Reseña 17/05/2025
En 2025, OpenAI lanzó GPT-4o, un modelo multimodal más rápido que procesa texto, imágenes y audio, reemplazando a GPT-4 en ChatGPT. Incluye generación de imágenes mejorada, biblioteca visual integrada, compras sin publicidad y personalidades personalizables. También presentó GPT-4.5 y o1, especializados en creatividad y razonamiento avanzado.
Reseña 14/05/2025
Google avanzó con Gemini lanzando versiones 1.5 Flash y Pro con contexto ampliado para más datos. Gemini 2.0 y 2.5 mejoran razonamiento, programación y agentes IA. Ahora disponible en más idiomas y apps Google como Gmail, Drive y Maps. Incluye comprensión de imágenes, operación de robots, chip Ironwood y mejor organización de conversaciones.
Reseña 14/05/2025
DeepSeek lanzó DeepSeek-V3 con contexto de 128K tokens, mejor razonamiento y código, y DeepSeek-Coder 2 para programación avanzada. Integra búsqueda web en tiempo real, planea análisis multimodal y ofrece versiones open-source. Próximamente llegará DeepSeek-V4 con mayor interacción y personalización para dominios especializados.
Reseña 14/05/2025
Llama 4, lanzado por Meta en abril de 2025, es un modelo multimodal y multilingüe que procesa texto, imágenes y video en 12 idiomas. Usa arquitectura mixture of experts para eficiencia. Incluye variantes Scout (ligero), Maverick (razonamiento y código) y Behemoth (en desarrollo). Se integra en WhatsApp e Instagram, ofreciendo respuestas naturales y menos sesgadas.
Reseña 15/04/2025
Midjourney V7 mejora la generación de imágenes IA con mayor rapidez, personalización y calidad. Su "Modo Borrador" crea imágenes 10 veces más rápido y a la mitad del costo. Permite personalizar estilos con valoraciones de usuarios, mejora coherencia anatómica y resolución, y añade comandos de voz para generar imágenes por instrucciones habladas.
Reseña 03/04/2025
Claude 3.5 Sonnet (Junio 2025): Lanzamiento con mejoras en codificación (49% en SWE-bench) y beta pública de "computer use" para navegación en interfaces.
Claude 3.5 Haiku (Mayo 2025): Modelo rápido que iguala a Claude 3 Opus en rendimiento, optimizado para tareas de bajo costo y velocidad.
Claude Gov (Junio 2025): Versión especializada para seguridad nacional de EE.UU., con manejo mejorado de materiales clasificados.
Claude 3.2 (Septiembre 2024): Primeros modelos multimodales de la serie, junto con versiones ligeras para móviles.
Claude 3.1 (Julio 2024): Incluyó el modelo 405B, primer LLM open-source "de nivel frontera".
Claude 3 Opus/Sonnet/Haiku (Abril 2024): Nueva generación con mejoras en razonamiento, contexto largo (200K tokens) y reducción de alucinaciones.
Integraciones Pro (Junio 2025): Claude Code, Research y conexiones con Jira/Zapier añadidos sin costo extra al plan Pro.
Acceso Web Gratuito (2025): Búsqueda en internet habilitada para todos los usuarios, incluidos no suscriptores.
Claude 2 (Julio 2023): Habilitó uso comercial y mejoró contexto a 100K tokens.
Claude 1 (Febrero 2023): Lanzamiento inicial restringido a investigación
Microsoft Copilot (junio 2025):
Lanzamiento de Copilot Studio, que permite a las empresas crear agentes personalizados sin necesidad de escribir código, adaptados a sus flujos de trabajo y datos específicos. Introducción de la Tienda de Agentes para instalar agentes listos para usar y conectarlos con aplicaciones como Jira o Monday.com. Implementación de Copilot Notebooks para reunir documentos, notas y grabaciones, ofreciendo resúmenes en audio con presentadores virtuales. Mejoras en la personalización que permiten a la IA aprender de las preferencias del usuario, con control total sobre lo que se recuerda.
Microsoft Copilot (abril 2025):
Integración de Copilot en Windows 11 con funciones como subtítulos en tiempo real, herramientas creativas en Paint y mejoras en la búsqueda de archivos. Ampliación de funciones de IA en PC Copilot+ con procesadores Intel y AMD, incluyendo opciones de accesibilidad y creatividad.
Microsoft Copilot (marzo 2025):
Presentación de Copilot Pages, plataforma dinámica y persistente para colaboración en equipo con IA. Introducción de agentes de Copilot para automatizar procesos empresariales e integración con Teams y SharePoint. Lanzamiento de nuevos agentes de ventas en Microsoft 365 Copilot para ayudar a cerrar acuerdos de forma eficiente.
Microsoft Copilot (febrero 2025):
Anuncio de Copilot Tuning para que las empresas personalicen modelos según su propio lenguaje, datos y flujos de trabajo. Implementación de orquestación multiagente en Copilot Studio para coordinar agentes especializados en procesos complejos.
Microsoft Copilot (octubre 2024):
Reestructuración de Copilot para cuentas personales, incluyendo cambios en la interfaz de usuario, separación completa de Bing, adición de funciones como Copilot Voice y Copilot Vision, y lanzamiento de Copilot Labs, un programa de acceso anticipado exclusivo para Microsoft Copilot Pro.
Microsoft Copilot (septiembre 2024):
Actualización de Microsoft 365 Copilot con nuevas funciones, incluyendo Copilot Actions para automatizar tareas diarias, agentes en SharePoint para facilitar la obtención de respuestas a partir de contenido relevante, y la presentación de Azure AI Foundry para diseñar, personalizar y gestionar aplicaciones y agentes de IA.
Microsoft Copilot (julio 2024):
Lanzamiento de Microsoft Copilot con un costo de $30 por usuario al mes para ciertos planes de Microsoft 365, centrado en realizar tareas tediosas para aumentar la creatividad y productividad del usuario.
Microsoft Copilot (mayo 2024):
Pausa en el lanzamiento de nuevas funcionalidades para Copilot con el objetivo de perfeccionarlas en función de los comentarios de los usuarios que ya las han probado, antes de su lanzamiento global.
Microsoft Copilot (abril 2024):
Presentación de Recall, una función que permite a Copilot recordar información del usuario para facilitar tareas futuras, aunque su lanzamiento fue pospuesto debido a preocupaciones de privacidad.
Microsoft Copilot (febrero 2024):
Anuncio de la integración de Copilot en Windows 11, ofreciendo asistencia contextual y mejoras en la productividad del usuario.
Microsoft Copilot (enero 2024):
Lanzamiento de Copilot para clientes empresariales de Microsoft 365, ofreciendo asistencia en aplicaciones como Word, Excel y PowerPoint.
Microsoft Copilot (diciembre 2023):
Integración de Copilot en Windows 11 sin costo adicional para muchas instalaciones, con planes de expansión a Windows 10 programados para el futuro.
Microsoft Copilot (noviembre 2023):
Rebranding de Microsoft 365 Copilot a simplemente Copilot, haciéndolo disponible para clientes empresariales de Microsoft 365.
Microsoft Copilot (octubre 2023):
Renombramiento de Bing Chat a Microsoft Copilot, integrándolo al ecosistema de Microsoft.
Microsoft Copilot (septiembre 2023):
Anuncio de Microsoft Copilot con un costo de $30 por usuario al mes para ciertos planes de Microsoft 365, centrado en realizar tareas tediosas para aumentar la creatividad y productividad del usuario.
Microsoft Copilot (junio 2023):
Presentación de Copilot en el evento Microsoft Build 2023, destacando su integración en Windows 11 y otras aplicaciones de Microsoft.
GPT-4.1 mini (Mayo 2025): Modelo eficiente que reemplaza a GPT-4o mini; mejora en seguimiento de instrucciones y tareas de codificación.
GPT-4.1 (Mayo 2025): Versión especializada en programación, superior a GPT-4o en desarrollo web y precisión técnica.
o3 y o4-mini (Abril 2025):Modelos "O-Series" con razonamiento avanzado; integran herramientas (web, código, imágenes) para resolver problemas complejos de forma autónoma.
GPT-4o (Abril 2025): Multimodal nativo; optimizado para STEM, codificación limpia y comprensión contextual profunda.
GPT-4.5 (Febrero 2025): Modelo intermedio para suscriptores Pro/Plus; enfoque en precisión técnica y creatividad controlada.
Búsqueda con Voz "SearchGPT" (Diciembre 2024): Integración de búsqueda por voz en dispositivos móviles y WhatsApp para respuestas en tiempo real.
Modelo o1 "Strawberry" (Diciembre 2024): Salto en razonamiento autónomo; resuelve problemas matemáticos complejos (83% de aciertos en olimpiadas).
Acceso Web Universal (Febrero 2025): Búsqueda en internet habilitada para todos los usuarios (antes solo premium), eliminando límite de datos en 2021
GPT-4 Tur.bo (Noviembre 2023): Contexto de 128K tokens, menor costo y datos actualizados hasta abril 2023.
Multimodalidad (Septiembre 2023): Capacidad para procesar voz, imágenes y video; integra DALL·E 3 y reconocimiento visual (GPT-4V).
ChatGPT Enterprise (Agosto 2023): Versión empresarial con seguridad mejorada, ventana de contexto extendida y sin límites de uso.
Plugins (Marzo 2023): Ecosistema de herramientas externas (navegación web, intérprete de código, Expedia, etc.).
GPT-4 (Marzo 2023): Modelo multimodal con soporte de imágenes, mayor precisión y contexto de 8K-32K tokens.
ChatGPT Plus (Febrero 2023): Suscripción premium ($20/mes) con acceso prioritario y respuestas más rápidas.
Lanzamiento Público (Noviembre 2022): Versión inicial basada en GPT-3.5; récord de 100 millones de usuarios en dos meses
DALL·E (2025): Actualizaciones continuas: mejora en generación fotorrealista, nuevos estilos artísticos, y optimización para contenido seguro, accesible y adaptable a múltiples usos.
DALL·E en Microsoft Designer y Bing (2024–2025): Integración profunda en productos Microsoft para facilitar la creación visual en diseño, productividad y búsqueda basada en IA.
DALL·E 3 API (Enero 2024): API abierta para desarrolladores, con acceso a generación de imágenes en entornos comerciales y creativos, incluyendo control de estilo y contenido.
DALL·E 3 (Octubre 2023): Integrado en ChatGPT con alta fidelidad a las instrucciones textuales, edición asistida y mejoras en seguridad y moderación de contenidos.
DALL·E 2 (Abril 2022): Salto en resolución, coherencia visual y herramientas de edición como inpainting y variaciones; mejora en realismo y control creativo.
DALL·E 1 (Enero 2021): Modelo original de texto a imagen basado en GPT, pionero en síntesis visual creativa y representación abstracta de conceptos textuales.
DeepSeek-R1 (Enero 2025): Modelo de razonamiento avanzado de código abierto (MIT), rivaliza con GPT-4 en matemáticas y programación.
DeepSeek-V3 (Diciembre 2024): Arquitectura Mixture of Experts (MoE) con 671B parámetros, eficiencia en inferencia y alto rendimiento multilingüe.
DeepSeek-V3-0324 (Marzo 2025): Actualización mayor: mejoras en razonamiento (MMLU-Pro: 81.2), escritura en chino y soporte para desarrollo web.
DeepSeek-R1-0528 (Mayo 2025): Actualización menor: reduce "alucinaciones" en 45%, mejora razonamiento complejo y creatividad literaria.
DeepSeek-V2 / V2.5 (2024): Versiones transicionales: optimización de inferencia, menor latencia y preparación para arquitectura MoE.
Flow + Veo 3 (Junio 2025): Herramienta de creación cinematográfica con IA para animar personajes y escenas desde texto o imágenes.
Gemini Live (Junio 2025): Conversación por voz fluida, reconocimiento de emociones e integración con Gmail, Drive y Docs.
Gemini 2.5 Flash (Mayo 2025): Optimizado para precio/rendimiento, con soporte para audio nativo y generación de voz en tiempo real.
Gemini 2.5 Pro (Marzo 2025): Primer modelo con "pensamiento adaptativo" (reasoning avanzado), líder en benchmarks como LMArena.
Veo 2.0 (Abril 2025): Generación de video detallado con comprensión de matices artísticos y física de materiales.
Gemini 2.0 Pro (Febrero 2025): Modelo experimental público con capacidad nativa para usar Búsqueda de Google como herramienta.
Gemini 1.5 Pro-002 (Septiembre 2024): Reducción de precios (64% en tokens), límites de velocidad 3x mayores y mejoras en matemáticas/código.
Gemini 1.5 Flash (Mayo 2024): Versión optimizada para velocidad y costo, con respuesta 2x más rápida y soporte para 32M tokens de contexto gratuito.
Gemini 1.5 Pro (Febrero 2024): Introdujo ventana de contexto de 1 millón de tokens, mejoras en análisis de video, PDFs y código.
Gemini 1.0 (Diciembre 2023): Lanzamiento inicial con tres modelos: Ultra (multimodal avanzado), Pro (equivalente a GPT-3.5) y Nano (para dispositivos móviles).
Genspark AI (julio 2025): Lanzamiento de Super Agent, un asistente autónomo sin código que automatiza tareas complejas como llamadas, presentaciones y creación de videos usando modelos multimodales y APIs en tiempo real. Super Agent alcanzó rápidamente una gran demanda y crecimiento.
Genspark AI (junio 2025): Introducción de Sparkflow, un generador visual sin código para crear flujos de trabajo automatizados. Se lanzó también MCP Store, una tienda con más de 700 herramientas para expandir las capacidades de Genspark.
Genspark AI (abril 2025): Reorientación hacia inteligencia artificial agente, evolucionando de motor de búsqueda a sistema autónomo que ejecuta tareas complejas y crea contenido multimedia con múltiples modelos y herramientas.
Genspark AI (febrero 2025): Cierre de una ronda de financiamiento significativa para fortalecer su posición en el mercado competitivo de motores de búsqueda basados en IA.
Genspark AI (junio 2024): Obtención de financiamiento inicial para desafiar a grandes competidores, desarrollando tecnología para indexar, resumir y generar resultados personalizados en una sola página.
Grok 4 (julio 2025): Nueva generación con Grok 4 y Grok 4 Heavy, destaca por razonamiento científico avanzado, comprensión multimodal y acceso en tiempo real a la web. Incorpora interfaz de voz tipo “Eve”, interpretación de memes y mejoras en programación, superando a Gemini y Claude en pruebas como ARC‑AGI‑2. Disponible en el plan SuperGrok Heavy, su lanzamiento incluyó nuevas políticas de moderación tras controversias en versiones anteriores.
Grok 3 (Febrero 2025): Última versión con modelos de razonamiento especializado (Grok 3 Reasoning y Grok 3 Mini Reasoning), DeepSearch (búsqueda inteligente en internet y X), modo Big Brain para problemas complejos, y soporte multimodal (imágenes y video). Impulsado por ~200,000 GPU, supera a competidores en matemáticas y programación.
Grok-2 (Julio 2024): Mejoras en rendimiento multilingüe y ventana de contexto de 128K tokens. Anunciado como código abierto, con planes de liberación tras la estabilización de Grok 3.
Grok-1.5 (Noviembre 2023): Introdujo acceso a datos en tiempo real de X (Twitter), mejoras en comprensión de lenguaje y soporte para resúmenes de noticias. Disponible para usuarios de X Premium+.
Lanzamiento Público Inicial (Julio 2023): Grok-1 debutó como beta en X (Twitter), con integración en la plataforma y estilo "anti-woke". Ofrecía respuestas humorísticas y acceso prioritario para suscriptores Premium.
Anuncio Fundacional (Marzo 2023): Elon Musk revela la creación de xAI y el proyecto Grok, inspirado en "Guía del Autoestopista Galáctico". Objetivo: IA con "máxima búsqueda de verdad" y menos censura.
HeyGen (Junio 2025): Incorporación de “Product Placement” con integración gestual, mejoras en avatares con microexpresiones y edición avanzada en AI Studio desde guiones sin línea de tiempo.
HeyGen (Mayo 2025): Lanzamiento de Avatar IV, modelo de avatar hiperrealista que funciona con una sola foto, sincronización labial precisa y expresiones naturales.
HeyGen (Abril 2025): Integración de Voice Mirroring (imitación del tono y ritmo vocal) y subtítulos editables dentro del editor de video.
HeyGen (Marzo 2025): Nuevas funciones como Brand Shuffle (variaciones visuales automáticas), Eye Contact Correction, Video Score y Spotlight Mode para optimizar la calidad del video generado.
HeyGen (Febrero 2025): Implementación de BrandKit para crear una identidad visual completa desde una URL y gestión unificada de avatares en foto y video.
HeyGen (Diciembre 2024): Mejoras en Photo Avatars con estilos temáticos, efectos de sonido y más ranuras para avatares interactivos en planes Creator+.
HeyGen (Enero 2024): Introducción de Voice Design para personalizar tono, acento y velocidad de la voz del avatar.
HunYuan AI (mayo 2025):
Se presentó Hunyuan-TurboS, un modelo de lenguaje híbrido Transformer-Mamba con 56 mil millones de parámetros activados, diseñado para tareas de razonamiento y comprensión contextual. Incorpora un mecanismo adaptativo de cadena de pensamiento largo-corto (CoT) que optimiza recursos computacionales al alternar entre respuestas rápidas y modos de "pensamiento" profundo. Entrenado con 16 billones de tokens de alta calidad, soporta una longitud de contexto de 256K y ha demostrado un rendimiento destacado en benchmarks, superando modelos líderes como Gemini-2.0-Flash-001.
HunYuan AI (enero 2025):
Se lanzó Hunyuan3D 2.0, un sistema avanzado de síntesis 3D que genera activos 3D texturizados de alta resolución. Incluye dos componentes fundamentales: un modelo de generación de formas y un modelo de síntesis de texturas, permitiendo la creación de geometría alineada con imágenes condicionales y mapas de texturas vibrantes. Además, se presentó Hunyuan3D-Studio, una plataforma de producción versátil y fácil de usar que simplifica el proceso de recreación de activos 3D.
HunYuan AI (mayo 2025):
Se introdujo Hunyuan-Game, un modelo de creación de juegos inteligente de grado industrial. Este modelo abarca dos ramas principales: generación de imágenes y generación de videos, con modelos algorítmicos que abordan puntos críticos en el desarrollo de juegos. Los modelos de generación de imágenes incluyen generación de efectos visuales del juego, generación de personajes del juego basada en bocetos y generación de imágenes transparentes para personajes y escenas. Los modelos de generación de videos incluyen generación de videos de imagen a video, síntesis de videos de avatares en pose A/T de 360 grados, generación de ilustraciones dinámicas, super resolución de videos generados y generación de videos interactivos del juego.
Kling AI (mayo 2025):
Lanzamiento de Kling 2.0 Master, que incluye edición multimodal avanzada para video e imagen, con Multi‑Element Editor, inpainting, canvas expansion y estilo cinematográfico Kolors 2.0 .
Kling AI (abril 2025):
Mejora del modelo base con mejor fidelidad a prompts, movimiento más natural, estética visual optimizada y motor Kolors 2.0 para acabado cinematográfico .
Kling AI (noviembre 2024):
Modelo 1.5 incorpora Motion Brush (animación selectiva en imágenes), modo profesional 1080p, generación simultánea de cuatro videos y Face Model para avatares en Pro/Premier .
Kling AI (diciembre 2024):
Se introduce “Elements”, mejorando la consistencia visual de personajes, objetos y ambientes mediante cargas de imágenes y prompts estructurados .
Kling AI (1.6, principios de 2025):
Modelo 1.6 mejora la comprensión contextual en videos/multiframe, continuidad de escenas, soporte multilingüe (50+ idiomas), mejor interpretación de prompts y control de sesgo .
Llama 4 Scout/Maverick (Abril 2025): Modelos nativamente multimodales con arquitectura "Mixture of Experts" (MoE), contexto de 10M tokens, y eficiencia en costes (ej: Scout con 109B parámetros totales, 17B activos) .
Llama 3.3 70B (Diciembre 2024): Versión de solo texto con rendimiento similar a Llama 3.1 405B, pero con menor costo operativo y optimizada para escalabilidad.
Llama 3.2 (Septiembre 2024): Primeros modelos multimodales de la serie, junto con versiones ligeras para dispositivos móviles y edge (anunciado en Connect 2024).
Llama 3.1 (Julio 2024): Incluyó el modelo 405B, primer LLM de código abierto "de nivel frontera", mejorando razonamiento y multilingüismo.
Llama 3 (Abril 2024): Nueva generación de modelos base, soporte para 8K tokens y datos en 30 idiomas; estableció estándares de rendimiento open-source.
Llama 2 (Julio 2023): Habilitó uso comercial, mejoró contexto a 4K tokens y entrenado con 2T tokens; punto de inflexión para adopción empresarial.
Llama 1 (Febrero 2023): Lanzamiento inicial (6.7B-65B parámetros), restringido a investigación; sentó las bases del ecosistema abierto.
Manus (junio 2025): Se lanzó el Modo de Preferencia de Agente para elegir entre respuestas rápidas o de mayor calidad según la tarea. Se añadió el Navegador en la Nube para gestionar sesiones y credenciales, junto con la automatización de tareas programadas y un modo de chat gratuito con opción a funciones avanzadas. Se integró con Veo 3 para mejorar la creación de videos con sincronización natural de voz.
Manus (mayo 2025): Se implementó una arquitectura multiagente que permite ejecutar tareas complejas de forma autónoma, con soporte para contenido multimodal (texto, imágenes, código) y mejor integración con aplicaciones externas. Además, se incorporó aprendizaje autónomo para optimizar la personalización y efectividad.
Manus (marzo 2025): Lanzamiento inicial de Manus como un agente de IA autónomo capaz de realizar tareas complejas como análisis financiero, evaluación inmobiliaria y creación web, basado en modelos avanzados y arquitectura multiagente en la nube para operar incluso sin conexión directa del usuario.
V7: (jul 2025) Confirmación de V7 como modelo estándar. Se anunciaron mejoras significativas: controles para video (frames de inicio/fin y modo loop), adelantos del turbo‑mode, nuevas funciones profesionales HD‑video y el lanzamiento de una API empresarial controlada.
V7 (2025): Acelera la generación de imágenes con mayor calidad, coherencia y personalización. Incorpora un "Modo Borrador" 10 veces más rápido y más económico, y permite crear imágenes por voz y adaptar estilos según preferencias del usuario.
V6.5 (2024): Enfoque en calidad de imagen y corrección de anatomía/texto; integración experimental de ControlNet.
V6 (2023): Mayor realismo fotográfico, resolución 2K y comprensión avanzada de prompts.
V5.2 (Jun 2023): Introdujo outpainting (zoom out) para expandir imágenes.
V5 (Mar 2023): Beta pública con mejoras en detalles y diversidad estilística.
V4 (Nov 2022): Salto significativo en realismo; primera versión con generación de texto legible.
Beta abierta (Jul 2022): Acceso masivo vía Discord; lanzamiento inicial de funciones básicas de generación.
Junio 2025 - Compartición pública de cuadernos: Permite compartir cuadernos mediante enlace público para colaboración en proyectos educativos, empresariales o creativos, manteniendo el contenido original protegido.
Marzo 2025 - Integración con Veo 3: Nueva función para generar videos cinematográficos a partir de textos o imágenes, ampliando capacidades creativas.
Primer trimestre 2025 - App móvil (v1.0.6): Lanzamiento para iOS con soporte offline, resúmenes de audio tipo podcast y corrección de errores en gestión de fuentes.
Septiembre 2024 - Multimodalidad avanzada: Análisis de imágenes, gráficos y diagramas en Presentaciones Google/Docs usando Gemini 1.5 Pro, con citas visuales integradas.
Junio 2024 - Expansión global: Disponible en +200 países (incluidos España y Latinoamérica), soporta URLs web y Presentaciones Google, y aumenta límite a 25 millones de palabras por cuaderno.
Marzo 2024 - Capacidad ampliada y notas inteligentes: Permite hasta 20 fuentes (200K palabras cada una), creación de notas editables y guardado de respuestas de chat para referencia rápida.
Diciembre 2023 - Lanzamiento inicial (EE.UU.): Versión beta con análisis de PDFs, Docs y texto; uso de Gemini Pro para resúmenes y conexiones entre documentos
Perplexity (Junio 2025): Incorporación de datos financieros en tiempo real, visualizaciones interactivas y mejoras en módulos de investigación profunda.
Perplexity (Marzo 2025): Integración de búsqueda por voz y uso del nuevo protocolo de contexto para respuestas más actualizadas y personalizadas.
Perplexity Sonar (Febrero 2025): Lanzamiento de su propio modelo de lenguaje (Sonar), con mayor velocidad, precisión y enfoque en razonamiento avanzado.
Perplexity Assistant (Enero–Febrero 2025): Lanzamiento en Android como asistente integrado con capacidades de cámara, apps móviles y navegación contextual.
Perplexity para escritorio (Octubre 2024): App nativa para macOS con interfaz optimizada y rendimiento mejorado.
Perplexity Pages (Mayo 2024): Introducción de páginas visuales y compartibles para presentar resultados de investigación de forma más atractiva.
Perplexity Enterprise Pro (Abril 2024): Herramienta empresarial con cifrado, gestión de usuarios y funciones avanzadas para equipos profesionales.
Perplexity (Diciembre 2022): Lanzamiento inicial como buscador conversacional con IA y enfoque en respuestas rápidas y verificables.
Sora (junio 2025): Disponible libremente en Bing Video Creator en apps móviles con generación gratuita de clips verticales de 5 s, opción "Fast" más ágil y almacenamiento de videos por 90 días.
Sora Turbo & ChatGPT (febrero 2025 – marzo 2025): Lanzamiento de Sora Turbo para generación rápida (< 30 s por clip de 10 s a 720p) y confirmación de integración dentro de ChatGPT, unificando texto, imágenes y video en una sola interfaz.
On‑device Sora (febrero 2025): Primera versión móvil optimizada mediante técnicas como Linear Leap y token merging, capaz de generar videos en dispositivos como iPhone 15 Pro sin depender de la nube.
Permisos ampliados (marzo 2025): Habilitada progresivamente la generación de personas fotorrealistas en Plus, tras sistemas de mitigación de riesgo.
Sora Turbo (diciembre 2024): Lanzamiento de la versión más rápida y confiable de Sora, con interfaz de storyboard, presets de estilo y herramientas creativas como Remix y Blend.
Sora original (febrero/diciembre 2024): Publicación para usuarios Plus/Pro con generación de videos de hasta 20 s, resolución 1080p (Pro), diversas relaciones de aspecto y restricciones sociales responsables.
Stable Diffusion (marzo 2025): Mejora de velocidad de generación con nuevos decodificadores ligeros basados en Vision Transformer, logrando hasta 15 % más rapidez y mayor eficiencia en tareas de video.
Stable Diffusion 3.5 (octubre 2024 – enero 2025): Lanzamiento de variantes Large, Turbo y Medium con mejor fidelidad al prompt, calidad visual superior y arquitectura optimizada para diversidad y precisión.
Stable Diffusion 3.0 (abril 2024): Introducción del modelo SDXL con soporte nativo para múltiples LoRA, ControlNet, embeddings, tiling y reducción del uso de VRAM en entornos de generación comunitaria.
Stable Diffusion 2.0 (noviembre 2022): Mejora en resolución nativa (hasta 768×768), incorporación de depth2img, nuevo encoder OpenCLIP, inpainting más preciso y capacidad de escalado 4×.
Suno AI (mayo 2025): Lanzamiento de la versión 4.5, con mejoras en expresividad vocal, combinaciones estilísticas flexibles, y una herramienta de remasterización para actualizar pistas a la calidad de la nueva versión. Se incorporó el asistente de letras con IA llamado ReMi y una mejora en la generación de prompts. Además, se amplió la duración máxima de las canciones a 8 minutos y se mejoró la calidad del audio para composiciones largas.
Suno AI (noviembre 2024): Lanzamiento de la versión 4.0, que incluyó la función Remaster para actualizar pistas antiguas, el asistente de letras con IA ReMi, y un sistema mejorado para la creación de portadas adaptadas a estilos musicales.
Suno AI (2024): Lanzamiento de la aplicación móvil, permitiendo la generación de música en cualquier lugar con opciones de creación, remezcla y compartición. Se añadió la función de conversión de sonidos del mundo real en composiciones musicales completas y se ampliaron las capacidades para generar canciones más largas y complejas sin herramientas externas.
Udio (julio 2025): Se introdujo la función de cola de generación prioritaria para suscriptores, portadas personalizadas y avatares de usuario. Se implementó la ventana de contexto para controlar cuánto del audio anterior influye en la generación y se lanzó una versión gratuita con créditos mensuales y diarios.
Udio (junio 2025): Lanzamiento de "Sessions", una estación de trabajo visual avanzada que permite a los músicos editar y reorganizar canciones con precisión usando IA, facilitando mayor control creativo para artistas independientes.
Udio (mayo 2025): Lanzamiento de la versión 1.5 con mejoras en calidad de audio, pistas estéreo a 48kHz, descarga de stems separados para mezcla externa, función Audio a Audio para remixes, control de clave musical y mejor soporte multilingüe.
Udio (abril 2024): Lanzamiento público de la versión beta gratuita que permite crear música a partir de texto. El desarrollo fue liderado por ex investigadores de Google DeepMind y respaldado por inversores destacados, con el objetivo de democratizar la creación musical.
Veo 3 (junio 2025): Lanzamiento de Veo 3 que permite generar videos realistas con audio integrado, incluyendo diálogos sincronizados, música y efectos sonoros. Disponible para suscriptores de Google AI Ultra en Estados Unidos y en 71 países a través de Gemini Pro y Vertex AI. Ofrece control avanzado de cámara y estilo mediante la herramienta Flow, y generación de clips animados con Whisk Animate.
Veo 2 (abril 2025): Introducción de Veo 2, capaz de generar videos de alta resolución de 8 segundos con realismo cinematográfico. Disponible para suscriptores de Gemini Advanced y usuarios de Google One AI Premium a través de Whisk Animate. Incluye funciones como video potenciado por referencias, controles de cámara y extensión de imagen para adaptarse a diferentes formatos.
Veo (abril 2025): Presentación de Veo como el modelo de generación de video más eficaz de Google, capaz de crear videos de alta calidad con resolución de 1080p y duración superior a un minuto. Ofrece análisis avanzado del lenguaje natural y la semántica visual, permitiendo una representación precisa de escenas y movimientos realistas. Disponible en versión preliminar privada a través de VideoFX, con planes de expansión a YouTube Shorts y otros productos.