Microsoft lanza Maia 200, su acelerador de inferencia IA a 3 nm: +30% rendimiento/$ y 216 GB HBM3e. Ya se despliega en Azure para Copilot y modelos tipo GPT-5.2. https://aidoo.news/noticia/WlZeEr

Microsoft quiere reducir su dependencia con NVIDIA y que sus centros de datos no sean un agujero de dinero: su solución es Maia 200
Microsoft ha presentado el Maia 200, su segundo acelerador de IA propio orientado a la inferencia de modelos para reducir costes operativos y dependencia de NVI
