Noticias de AmazonAWS

AWS re:Invent. Descubre del 2 al 5 de diciembre las últimas novedades en cloud, IA generativa, ML, y centros de datos

14 min
aws-reinvent-2024
Casos reales de clientes, lanzamientos de nuevos productos, y Keynotes de líderes de AWS que abordarán temas de interés sobre la tecnología en la nube, como el futuro de la IA y los centros de datos.
En este artículo
Últimos anuncios de re:Invent 2024
  • TABLE DE CONTENIDO
    Últimos anuncios de re:Invent 2024
  • Últimos anuncios de re:Invent 2024
  • Aprendizaje Automático (ML)/Inteligencia Artificial (IA)”
  • Innovaciones en hardware y chips
  • Noticias destacadas y anuncios de clientes y partners
Casos reales de clientes, lanzamientos de nuevos productos, y Keynotes de líderes de AWS que abordarán temas de interés sobre la tecnología en la nube, como el futuro de la IA y los centros de datos.
  • 5 de diciembre
    Últimos anuncios de re:Invent 2024
  • 4 de diciembre
    Aprendizaje Automático (ML)/Inteligencia Artificial (IA)”
    • Amazon Bedrock empodera a los clientes para acelerar la adopción de IA generativa con más de 100 nuevos modelos y poderosas nuevas capacidades para inferencia y trabajo con datos
      • AWS anunció nuevas innovaciones para Amazon Bedrock, un servicio completamente administrado para construir y escalar aplicaciones de inteligencia artificial (IA) generativa con modelos fundacionales de alto rendimiento. Los anuncios de hoy refuerzan el compromiso de AWS con la elección de modelos, optimizan cómo se realiza la inferencia a escala y ayudan a los clientes a obtener más de sus datos.
        • AWS pronto será el primer proveedor cloud en ofrecer modelos de Luma AI y poolside. AWS también agregará el último modelo de Stability AI en Amazon Bedrock y, a través de la nueva capacidad de Amazon Bedrock Marketplace, está dando acceso a más de 100 modelos populares, emergentes y especializados, para que los clientes puedan encontrar el conjunto de modelos adecuado para su caso de uso.
        • La nueva memoria caché de indicaciones y el enrutamiento inteligente de indicaciones de Amazon Bedrock ayudan a los clientes a escalar la inferencia de manera más fácil y rentable.
        • El soporte para datos estructurados y GraphRAG en las bases de conocimientos de Amazon Bedrock amplía aún más el cómo los clientes pueden aprovechar sus datos para ofrecer experiencias de IA generativa personalizadas.
        • La automatización de datos de Amazon Bedrock transforma automáticamente los datos no estructurados y multimodales en datos estructurados sin necesidad de codificación, ayudando a los clientes a utilizar más de sus datos para IA generativa y análisis.
    • Las nuevas capacidades de Amazon SageMaker AI reinventan cómo los clientes construyen y escalan modelos de IA generativa y aprendizaje automático
      • AWS ha anunciado cuatro nuevas innovaciones para Amazon SageMaker AI para ayudar a los clientes a comenzar más rápido con modelos públicos, maximizar la eficiencia del entrenamiento, reducir costes y usar sus herramientas preferidas para acelerar el desarrollo de modelos de inteligencia artificial (IA) generativa. Amazon SageMaker AI es un servicio de extremo a extremo utilizado por cientos de miles de clientes para ayudar a construir, entrenar e implementar modelos de IA para cualquier caso de uso con infraestructura, herramientas y flujos de trabajo completamente administrados.
        • Tres nuevas y potentes incorporaciones adiciones a Amazon SageMaker HyperPod facilitan a los clientes comenzar rápidamente con el entrenamiento de algunos de los modelos públicos más populares, ahorrar semanas de tiempo de entrenamiento de modelos con planes de entrenamiento flexibles y maximizar la utilización de recursos informáticos para reducir los costes hasta en un 40%.
        • Los clientes de SageMaker ahora pueden descubrir, implementar y utilizar de manera fácil y segura aplicaciones de desarrollo de IA generativa y aprendizaje automático (ML) totalmente administradas de los partners de AWS, como Comet, Deepchecks, Fiddler AI y Lakera, directamente en SageMaker, dándoles la flexibilidad para elegir las herramientas que mejor les funcionen.

    Noticias de AWS

    Anuncios de Clientes y Partners

  • 3 de diciembre
    Innovaciones en hardware y chips
    • Disponibilidad general de las Instancias AWS Trainium2 (03.12.24) - AWS ha anunciado la disponibilidad general de las instancias Amazon EC2 alimentadas por AWS Trainium2, ha presentado los nuevos Trn2 UltraServers, permitiendo a los clientes entrenar y desplegar los últimos modelos de IA, así como futuros modelo extensos de lenguaje (LLM) y modelos fundacionales (FM) con niveles excepcionales de rendimiento y eficiencia de costos, y presentó la próxima generación de chips Trainium3.

    Los aspectos más destacados incluyen:
    Trn2 es la instancia Amazon EC2 de mayor rendimiento para aprendizaje profundo e IA generativa: Las instancias Trn2 ofrecen un rendimiento precio/calidad 30-40% mejor que la generación actual de instancias EC2 P5e y P5en basadas en GPU y cuentan con 16 chips Trainium2 para proporcionar 20.8 petaflops de cálculo máximo, ideal para entrenar y desplegar LLMs con miles de millones de parámetros.

    Los Trn2 UltraServers satisfacen las crecientes necesidades de cálculo de IA de los modelos más grandes del mundo: Los Amazon EC2 Trn2 UltraServers son una oferta completamente nueva de EC2 que cuenta con 64 chips Trainium2 interconectados, utilizando la interconexión ultra rápida NeuronLink, para escalar hasta 83.2 petaflops de cálculo máximo, cuadruplicando el cálculo, la memoria y la red de una sola instancia.

    Chips Trainium3: diseñados para las necesidades de alto rendimiento de la próxima frontera de cargas de trabajo de IA generativa: Trainium3 será el primer chip de AWS fabricado con un nodo de proceso de 3 nanómetros, estableciendo un nuevo estándar de rendimiento, eficiencia energética y densidad. Se espera que los UltraServers alimentados por Trainium3 sean 4 veces más potentes que los Trn2 UltraServers, permitiendo a los clientes iterar aún más rápido al construir modelos y ofrecer un rendimiento en tiempo real superior al desplegarlos. Se espera que las primeras instancias basadas en Trainium3 estén disponibles a finales de 2025.

    Permitir a los clientes desbloquear el rendimiento de Trainium2 con el software AWS Neuron: AWS ha lanzado el SDK de Neuron, que ofrece herramientas para optimizar modelos para chips Trainium. El SDK se integra con marcos como JAX y PyTorch, admite más de 100,000 modelos en el hub de modelos Hugging Face e incluye la Interfaz de Kernel de Neuron (NKI) para acceso de metal desnudo.

    Aprendizaje Automático (ML)/Inteligencia Artificial (IA)

    Los nuevos modelos fundacionales de vanguardia de Amazon ofrecen inteligencia puntera y un rendimiento líder en la industria en relación precio-rendimiento. Los modelos Amazon Nova amplían la creciente gama de los modelos fundacionales más completos y potentes en Amazon Bedrock para clientes empresariales.

    • Presentación de Amazon Nova: Una Nueva Generación de Modelos fundacionales (03.12.24) - Los nuevos modelos base de última generación de Amazon ofrecen inteligencia fronteriza y rendimiento precio/calidad líder en la industria. Los nuevos modelos de Amazon Nova disponibles en Amazon Bedrock incluyen:

      • Amazon Nova Micro, un modelo solo de texto que ofrece las respuestas de menor latencia a muy bajo costo.
      • Amazon Nova Lite, un modelo multimodal de muy bajo costo que es extremadamente rápido para procesar entradas de imagen, video y texto.
      • Amazon Nova Pro, un modelo multimodal altamente capaz con la mejor combinación de precisión, velocidad y costo para una amplia gama de tareas.
      • Amazon Nova Premier, el más capaz de los modelos multimodales de Amazon para tareas de razonamiento complejo y para su uso como el mejor maestro para destilar modelos personalizados (disponible en el primer trimestre de 2025).
      • Amazon Nova Canvas, un modelo de generación de imágenes de última generación.
      • Amazon Nova Reel, un modelo de generación de video de última generación.
    • AWS refuerza Amazon Bedrock con una protección de IA pionera en el sector, capacidad de orquestación de agentes y opción de personalización avanzada (03.12.24)
      • AWS anunció nuevas capacidades para Amazon Bedrock, un servicio completamente administrado para construir y escalar aplicaciones de IA generativa con modelos base de alto rendimiento. Estas capacidades ayudan a los clientes a prevenir errores factuales debido a alucinaciones, orquestar múltiples agentes impulsados por IA para tareas complejas y crear modelos más pequeños y específicos para tareas que pueden tener un rendimiento similar al de un modelo grande a una fracción del costo y la latencia.
    • AWS Presenta la Próxima Generación de Amazon SageMaker, Ofreciendo una Plataforma Unificada para Datos, Análisis e IA (03.12.24) - AWS anunció la próxima generación de Amazon SageMaker, unificando las capacidades que los clientes necesitan para análisis SQL rápidos, procesamiento de big data a escala de petabytes, exploración e integración de datos, desarrollo y entrenamiento de modelos, y IA generativa en una plataforma integrada.

    Amazon Q

    Base de datos y almacenamiento

    • Amazon S3 Amplía Capacidades con Tablas Apache Iceberg Administradas para Análisis de Data Lake Más Rápidos y Generación Automática de Metadatos para Simplificar el Descubrimiento y Comprensión de Datos (03.12.24) - AWS anunció nuevas características de Amazon S3 que hacen de S3 el primer almacenamiento de objetos en la nube con soporte totalmente administrado para Apache Iceberg para análisis más rápidos y la forma más fácil de almacenar y administrar datos tabulares a cualquier escala.
      • Tablas Amazon S3: la forma más fácil y rápida de realizar análisis en tablas Apache Iceberg en S3, ofreciendo un rendimiento de consulta hasta 3 veces más rápido.
      • Metadatos de Amazon S3: la forma más fácil y rápida de descubrir y entender los datos en S3.
    • AWS Anuncia Nuevas Capacidades de Base de Datos Incluyendo Amazon Aurora DSQL, la Base de Datos SQL Distribuida Más Rápida (03.12.24) - AWS anunció nuevas capacidades para Amazon Aurora y Amazon DynamoDB para soportar las cargas de trabajo más exigentes de los clientes que necesitan operar en múltiples regiones con consistencia fuerte, baja latencia y la mayor disponibilidad, ya sea que quieran SQL o NoSQL.
      • Amazon Aurora DSQL es una nueva base de datos SQL distribuida sin servidor que permite a los clientes construir aplicaciones con la mayor disponibilidad, consistencia fuerte, compatibilidad con PostgreSQL y lecturas y escrituras 4 veces más rápidas en comparación con otras bases de datos SQL distribuidas populares.
      • Las tablas globales de Amazon DynamoDB ahora admiten consistencia fuerte en varias regiones, asegurando que las aplicaciones multi-región de los clientes siempre estén leyendo los últimos datos sin tener que cambiar ningún código de aplicación.

    Anuncios de Clientes y Partners

    Startups

  • 2 de diciembre
    Noticias destacadas y anuncios de clientes y partners
    AWS re:Invent 2024
    Foto de Noah Berger/Noah Berger
    AWS re:Invent 2024 Photo by Noah Berger
    AWS re:Invent 2024
    Foto de Noah Berger/Noah Berger
    AWS re:Invent 2024 Photo by Noah Berger

    Clientes y Partners

    Wiwynn Selecciona AWS Outposts para Reducir el Tiempo de Implementación de la Fabricación Inteligente Global en un 90% (02.12.24)
    Wiwynn ha seleccionado AWS Outposts para reducir el tiempo global de implementación de la fabricación inteligente en un 90%. Al aprovechar AWS Outposts y la extensa infraestructura cloud de AWS, Wiwynn logró implementaciones rápidas, rentables, flexibles, de baja latencia, resilientes y seguras, acelerando su visión de expandir las fábricas inteligentes en todo el mundo.

    Oracle Database@AWS Disponible en Vista Previa Limitada (02.12.24)
    Oracle anunció la vista previa limitada de Oracle Database@AWS. Los clientes ahora podrán ejecutar Oracle Exadata Database Service en Oracle Cloud Infrastructure (OCI) en AWS, comenzando con la región este de EE. UU. de AWS.

    Midea Aprovecha Amazon Connect y los Servicios GenAI para Construir Centros de Contacto Globales Inteligentes y Redefinir las Experiencias del Cliente (02.12.24)
    AWS anunció que Midea, una empresa líder mundial en tecnología, está utilizando Amazon Connect para lograr una implementación rápida y exitosa de centros de contacto omnicanal basados en la nube en 14 países y regiones de todo el mundo.

  • En este artículo
  • 1
    Últimos anuncios de re:Invent 2024
  • 2
    Aprendizaje Automático (ML)/Inteligencia Artificial (IA)”
  • 3
    Innovaciones en hardware y chips
  • 4
    Noticias destacadas y anuncios de clientes y partners