Meta launches open-source multimodal AI model Llama 3.2 for image and text processing. Meta lanza el modelo de IA multimodal de código abierto Llama 3.2 para el procesamiento de imágenes y textos.
Meta has launched Llama 3.2, its first open-source multimodal AI model capable of processing images and text. Meta ha lanzado Llama 3.2, su primer modelo multimodal de IA de código abierto capaz de procesar imágenes y texto. It includes vision models with 11 billion and 90 billion parameters, and lightweight text models with 1 billion and 3 billion parameters, designed for diverse hardware. Incluye modelos de visión con 11 mil millones y 90 mil millones de parámetros, y modelos de texto ligero con 1.000 millones y 3.000 millones de parámetros, diseñados para hardware diverso. Llama 3.2 aims to enhance AI applications in areas like augmented reality and document analysis, offering competitive performance in image recognition tasks against rivals like OpenAI and Anthropic. Llama 3.2 tiene como objetivo mejorar las aplicaciones de IA en áreas como la realidad aumentada y el análisis de documentos, ofreciendo un rendimiento competitivo en tareas de reconocimiento de imágenes contra rivales como OpenAI y Anthropic.