La llegada de la Raspberry Pi AI HAT+ 2 marca un paso importante para quienes quieren trabajar con inteligencia artificial directamente en una Raspberry Pi 5 sin depender de la nube. Esta nueva placa de expansión combina un acelerador neuronal específico y memoria propia para descargar gran parte del trabajo de IA del procesador principal y permitir usos más exigentes en el terreno de la IA generativa en el borde.
Con un precio de referencia en torno a 130 dólares -que en España y otros países europeos se está traduciendo en cifras cercanas a los 140‑150 euros según distribuidor-, la AI HAT+ 2 se sitúa como una opción relativamente asequible para experimentar con modelos de lenguaje ligeros y visión artificial en dispositivos de bajo consumo. No pretende competir con grandes estaciones de trabajo o servicios cloud, pero sí ofrecer una herramienta práctica para proyectos de IoT, automatización, prototipado y formación.
Qué es la Raspberry Pi AI HAT+ 2 y en qué se diferencia de la anterior

La Raspberry Pi AI HAT+ 2 es una placa de ampliación oficial para Raspberry Pi 5 que se monta siguiendo el concepto HAT clásico: se atornilla sobre la placa base y se conecta tanto al conector GPIO como a la interfaz PCI Express integrada en la propia Raspberry. Su objetivo es ampliar la capacidad de cómputo de IA del sistema sin cambiar el formato ni la filosofía de las SBC.
Este modelo llega como sucesor directo de la primera Raspberry Pi AI HAT+, presentada en 2024 y centrada casi por completo en tareas de visión inteligente gracias a los aceleradores Hailo‑8 (26 TOPS) y Hailo‑8L (13 TOPS). Aquella placa estaba muy orientada a detección de objetos, estimación de poses o reconocimiento de escenas con cámara, pero se quedaba corta para modelos de lenguaje algo más ambiciosos.
Con la AI HAT+ 2, Raspberry Pi da el salto a la IA multimodal local apoyándose en el nuevo acelerador de redes neuronales Hailo‑10H y añadiendo en la propia tarjeta 8 GB de memoria LPDDR4X dedicada. Esta combinación permite ir más allá de la visión por computador y abarcar también modelos de lenguaje grandes de tamaño reducido y modelos multimodales directamente en el dispositivo.
Al disponer de DRAM integrada en el HAT, el sistema puede separar mejor los recursos: la Raspberry Pi 5 mantiene su CPU, GPU y RAM principal para la lógica de la aplicación, la interfaz de usuario o los servicios de red, mientras que el coprocesador Hailo‑10H se encarga de la mayor parte de la inferencia de IA. En la práctica, esto reduce el impacto de la IA sobre el rendimiento general del sistema.
Hardware y rendimiento: Hailo‑10H, 40 TOPS y consumo contenido

El corazón de la AI HAT+ 2 es el Hailo‑10H, un acelerador de redes neuronales diseñado para despliegues de IA en el borde y comparable a algunas plataformas con IA integrada. Según los datos facilitados por Raspberry Pi y Hailo, este chip ofrece hasta 40 TOPS de rendimiento de inferencia, trabajando con cuantizaciones como INT4 e INT8 habituales en entornos embebidos. Este salto supone una mejora clara frente a los 13/26 TOPS de la primera generación basada en Hailo‑8 y Hailo‑8L.
Uno de los puntos clave es que el Hailo‑10H está limitado a una potencia de alrededor de 3 W. Esta restricción mantiene el consumo bajo control y facilita su uso en cajas compactas, proyectos alimentados por batería o sistemas donde la disipación térmica es un quebradero de cabeza. La contrapartida es que, en determinadas cargas muy optimizadas para la CPU y la GPU de la Raspberry Pi 5, la ventaja en rendimiento bruto de la NPU no siempre será espectacular.
La placa incorpora 8 GB de memoria LPDDR4X dedicados exclusivamente al acelerador de IA. Esta novedad es significativa: mientras la primera AI HAT+ dependía casi por completo de la memoria del propio SBC, ahora el HAT puede cargar modelos y datos en su propia RAM, reduciendo aún más el impacto en la memoria de la Raspberry Pi 5.
Raspberry Pi señala que, en tareas de visión, el rendimiento del Hailo‑10H es prácticamente equivalente al de la variante de 26 TOPS de la AI HAT+ original, pese al cambio de arquitectura. La mejora real se aprecia sobre todo en la capacidad para manejar cargas de trabajo de IA generativa y en la flexibilidad que aporta la memoria dedicada a bordo.
En el paquete se incluye un disipador específico para la NPU que, aunque no siempre es imprescindible por consumo, se recomienda instalar si se van a lanzar inferencias intensivas durante largos periodos. La idea es mantener el chip en un rango térmico estable y evitar posibles reducciones de frecuencia por temperatura.
Modelos de lenguaje compatibles y lo que se puede hacer en local

Uno de los reclamos principales del nuevo accesorio es la posibilidad de ejecutar modelos de lenguaje en local sobre una Raspberry Pi 5 sin tener que recurrir a servidores remotos. Durante la presentación, la compañía ha señalado una primera hornada de modelos soportados de entre 1.000 y 1.500 millones de parámetros, una escala manejable para el hardware disponible.
Entre los modelos citados se encuentran DeepSeek‑R1‑Distill, Llama 3.2, Qwen2, Qwen2.5‑Instruct y Qwen2.5‑Coder. La mayoría rondan los 1.500 millones de parámetros, salvo Llama 3.2, que se queda en torno a los 1.000 millones. En conjunto, permiten desplegar funciones como chat conversacional básico, generación y asistencia de código, traducción de textos o respuesta a preguntas sencillas, todo ello con los datos procesados directamente en el dispositivo.
Las demostraciones iniciales incluyen tareas como la traducción de francés a inglés o la resolución de preguntas cortas utilizando Qwen2. En estos ejemplos, la latencia se mantiene baja y la interacción resulta fluida, algo que se traduce en una experiencia mucho más natural que cuando se depende de conexiones inestables o de servidores externos saturados.
Ahora bien, conviene dejar claro que la AI HAT+ 2 no está pensada para modelos masivos como las implementaciones completas de ChatGPT, Claude o los LLM de mayor tamaño de Meta, Anthropic u OpenAI. Esos sistemas trabajan con cifras de parámetros que suelen moverse entre los cientos de miles de millones y los varios billones, muy lejos de lo que puede manejar una NPU de bajo consumo con 8 GB de RAM dedicada.
Aun con esas limitaciones, la placa permite crear proyectos interesantes: asistentes personales que funcionen sin conexión, pequeños bots de chat privados, herramientas de generación de código en entornos aislados o sistemas que combinen reconocimiento de escenas con una breve descripción en texto.
Memoria, límites prácticos y comparación con una Raspberry Pi 5 de 16 GB
Los 8 GB de LPDDR4X integrados en la AI HAT+ 2 suponen un avance claro respecto a la primera generación, pero también marcan un techo evidente. Muchos LLM cuantizados de tamaño medio y con contextos amplios pueden superar fácilmente los 10 GB de memoria entre pesos, buffers intermedios y contexto, por lo que esta solución está pensada, por ahora, para modelos relativamente compactos o para trabajar con ventanas de contexto más reducidas.
Si se compara con una Raspberry Pi 5 de 16 GB, la placa base con la configuración de memoria más alta sigue ofreciendo más margen para cargar modelos grandes directamente en la RAM del sistema, sobre todo si se dedica prácticamente todo el equipo a la IA y se minimiza el resto de procesos. En ese escenario, prescindir del HAT y tirar solo de CPU/GPU puede seguir siendo la opción más sencilla para ciertos usos muy concretos.
En cambio, la combinación de una Pi 5 -incluso con menos memoria- y el AI HAT+ 2 tiene sentido cuando se quiere distribuir el trabajo: dejar que la NPU se encargue de la inferencia y mantener la placa principal resolviendo otras tareas simultáneas, como mostrar una interfaz gráfica, gestionar bases de datos locales o servir contenido vía web.
La propia Raspberry Pi recuerda que el usuario debe tener presente la necesidad de operar dentro de un conjunto de datos limitado. Los modelos incluidos de serie no pretenden abarcar el conocimiento ni las capacidades de los grandes LLM en la nube; su papel es aportar respuestas útiles dentro de un dominio acotado.
Para afinar más los resultados, la compañía plantea el uso de técnicas como LoRA (Low‑Rank Adaptation), que permiten ajustar un modelo base a tareas concretas sin modificar la mayor parte de sus parámetros. De este modo, se puede entrenar o adaptar un LLM pequeño a un caso de uso específico -por ejemplo, documentación técnica propia de una empresa- sin desbordar los límites de memoria y cómputo del sistema.
Visión por computador, multimodalidad y ejecución simultánea

La AI HAT+ 2 no renuncia a los puntos fuertes de su predecesora en visión por computador. El Hailo‑10H mantiene unas capacidades muy cercanas a las del Hailo‑8 en tareas como detección y seguimiento de objetos, estimación de postura humana o segmentación de escenas, lo que permite seguir utilizando modelos populares de visión con muy buen rendimiento.
Raspberry Pi señala que el nuevo HAT puede ejecutar simultáneamente modelos de visión y de lenguaje, algo especialmente atractivo para proyectos que combinen cámara y texto. Un ejemplo típico sería una cámara que detecta personas u objetos utilizando un modelo tipo YOLO y, a la vez, genera descripciones breves o resúmenes mediante un LLM ligero instalado en el propio dispositivo.
En escenarios prácticos se mencionan tasas cercanas a los 30 fotogramas por segundo para algunos modelos de detección de objetos a resoluciones moderadas, siempre con la salvedad de que el rendimiento final dependerá del modelo elegido, la resolución de entrada y la complejidad de la escena. En cualquier caso, el objetivo es que el HAT asuma el peso de la visión mientras la Raspberry Pi 5 gestiona tareas como el almacenamiento, la interfaz o el envío de alertas.
La integración con el ecosistema de cámaras de Raspberry Pi se mantiene como uno de los puntos fuertes. El AI HAT+ 2 se integra en la misma pila de software, de manera que proyectos existentes que ya usaban las cámaras oficiales pueden adaptarse con menos esfuerzo para aprovechar el nuevo acelerador.
El soporte de software aún está en evolución. Aunque existen ya ejemplos, librerías y frameworks tanto desde Raspberry Pi como desde Hailo (con repositorios en GitHub y una Developer Zone con documentación), la ejecución en paralelo de varios modelos -visión, lenguaje y multimodales- todavía se está puliendo. Es de esperar que, con el tiempo, la experiencia sea más sencilla a medida que maduren los controladores y las herramientas.
Casos de uso en España y Europa: industria, IoT y educación
La combinación de tamaño reducido, bajo consumo y procesamiento local de IA encaja bien con varias de las tendencias de digitalización que se están impulsando en España y en el resto de Europa. Sectores como la automatización industrial, la gestión de edificios o el IoT avanzado pueden aprovechar una solución de este tipo para reducir la dependencia de la nube y mejorar la privacidad de los datos.
detección de anomalías en tiempo real en líneas de producción, control de accesos con reconocimiento básico o recuento de personas en instalaciones son algunos ejemplos de uso industrial donde la AI HAT+ 2 puede ser útil, combinando la cámara con modelos de lenguaje que generen avisos o informes resumidos directamente en la propia instalación.
En el ámbito del IoT doméstico y comercial, la placa abre la puerta a asistentes locales o un robot de hogar con IA que no tengan que enviar grabaciones de voz o vídeo a terceros, paneles que interpreten datos de sensores, cámaras que describan escenas o sistemas que generen resúmenes textuales sin salir de la red interna. Este enfoque encaja bastante bien con las normativas europeas crecientemente estrictas en materia de protección de datos.
detección de anomalías en tiempo real en líneas de producción, control de accesos con reconocimiento básico o recuento de personas en instalaciones son algunos ejemplos de uso industrial donde la AI HAT+ 2 puede ser útil, combinando la cámara con modelos de lenguaje que generen avisos o informes resumidos directamente en la propia instalación.
También es una opción interesante como kit de desarrollo para empresas y startups europeas que valoren integrar el chip Hailo‑10H en productos finales. Montar un prototipo basado en Raspberry Pi 5 y AI HAT+ 2 permite validar rendimiento, consumo y estabilidad antes de invertir en diseños de hardware propios más costosos.
En el terreno educativo, desde centros de formación profesional hasta universidades, una combinación de Raspberry Pi 5 y AI HAT+ 2 puede servir como plataforma para acercar la IA aplicada al aula sin necesidad de grandes presupuestos. El alumnado puede experimentar con modelos reales de lenguaje y visión, entender sus límites y aprender a desplegar soluciones en hardware de recursos contenidos.
Perfil de usuario y dónde tiene más sentido usarla
El público objetivo de la AI HAT+ 2 es variado. Por un lado, está la comunidad maker y de aficionados avanzados que ya utilizan Raspberry Pi 5 para proyectos de domótica, robótica o servidores caseros y ahora quieren añadir una capa de IA generativa o visión avanzada sin montar una estación de trabajo específica o pagar suscripciones continuas.
Por otro, la placa se dirige claramente a desarrolladores profesionales y startups que necesitan un entorno de pruebas para IA embebida. Frente a soluciones basadas en GPUs discretas o NPUs integradas en PCs industriales, el formato HAT ofrece un equilibrio interesante entre coste, consumo, tamaño y simplicidad, aunque lógicamente no alcanza los niveles de potencia de plataformas mucho más caras.
Para quienes solo busquen ejecutar modelos de lenguaje en local con el mayor margen de memoria posible, una Raspberry Pi 5 con 16 GB de RAM sin HAT sigue siendo una opción válida, siempre que se acepte que toda la inferencia recaerá sobre la CPU y la GPU del SBC. En cambio, si se pretende combinar IA con otras funciones en paralelo, aprovechar la NPU dedicada suele tener más sentido.
En España, donde las Raspberry Pi son habituales tanto en proyectos caseros como en pequeñas empresas tecnológicas, la AI HAT+ 2 puede encontrar su sitio en prototipos de dispositivos IoT con IA local, sistemas de control de acceso, soluciones de mantenimiento predictivo sencillo o asistentes internos que no deban sacar datos a la nube.
En cierto nivel de comodidad con Linux, el ecosistema Raspberry y los conceptos básicos de despliegue de modelos es recomendable para sacar partido al HAT; no está pensado como un “juguete plug and play” para usuarios completamente novatos.
Integración de software, recursos disponibles y soporte
A nivel de software, la AI HAT+ 2 se integra con el entorno habitual de Raspberry Pi 5. La comunicación con el Hailo‑10H se realiza a través de la interfaz PCIe, y los controladores correspondientes permiten dirigir las cargas de trabajo de IA hacia la NPU, manteniendo la CPU libre para otras tareas.
Hailo ofrece un repositorio en GitHub y una Developer Zone con ejemplos de código, modelos preconfigurados, tutoriales y frameworks orientados tanto a IA generativa como a visión computarizada. Esto reduce la barrera de entrada para quienes no quieran montar toda la pila desde cero, aunque sigue siendo recomendable tener cierta experiencia previa con Python, contenedores o entornos similares.
En el momento del lanzamiento, Raspberry Pi indica que ya hay modelos de lenguaje listos para instalar y que se irán incorporando variantes más grandes o afinadas a casos de uso específicos mediante actualizaciones. La idea es ir ampliando gradualmente el catálogo a medida que el ecosistema madure y se compruebe qué combinaciones de modelos y cuantización funcionan mejor en la práctica.
Como suele ocurrir con este tipo de soluciones, el rendimiento y la estabilidad reales dependerán en gran medida de la madurez del software. Algunas reseñas tempranas apuntan a que todavía hay margen de mejora en herramientas, documentación y soporte para ejecutar varios modelos en paralelo, pero la tendencia va hacia una integración cada vez más pulida dentro del ecosistema Raspberry Pi.
Hoy por hoy, la AI HAT+ 2 se posiciona como una solución intermedia entre la nube y los grandes servidores de IA: permite ejecutar modelos de lenguaje y visión ligeros con baja latencia, mantener los datos bajo control y contener los costes, siempre que el usuario asuma las limitaciones de potencia y memoria propias de un sistema pensado para el bajo consumo y el formato compacto.
