Information

Intel dévoile deux nouvelles puces axées sur l'IA lors de la conférence Hot Chips

Intel dévoile deux nouvelles puces axées sur l'IA lors de la conférence Hot Chips

Dans le but d'accélérer la formation et les inférences tirées des modèles d'intelligence artificielle (IA), Intel a dévoilé ses deux nouveaux processeurs. Ces deux puces font partie de sa sélection Nervana Neural Network Processor (NNP).

Les puces axées sur l'IA seront appelées Spring Crest et Spring Hill, comme elles ont été révélées mardi lors de la conférence Hot Chips, qui s'est tenue à Palo Alto, en Californie.

La Conférence Hot Chips est un symposium technologique annuel qui se tient chaque année en août.

CONNEXES: INTEL DÉVELOPPE UNE PUCE D'IA QUI AGIT COMME UN CERVEAU HUMAIN

Pourquoi ces puces sont-elles importantes?

Le travail axé sur l'IA se développe chaque année. Dans cet esprit, avoir la capacité de transformer des données en informations, puis en connaissances, nécessite un matériel et un boîtier, une mémoire, un stockage et des technologies spécifiques qui peuvent interagir, évoluer et prendre en charge des utilisations et des techniques d'IA nouvelles et complexes.

À # HotChips31, Intel pousse #AI partout: https://t.co/jbDsZSvZa0pic.twitter.com/y7bVBXwJxv

- Intel News (@intelnews) 20 août 2019

Celles-ci deux nouvelles puces et les accélérateurs, dans le cadre des NNP Nervana d'Intel, sont conçus à partir de zéro, en se concentrant sur l'IA afin de donner aux clients la bonne intelligence au bon moment.

«Dans un monde habilité par l'IA, nous devrons adapter les solutions matérielles à une combinaison de processeurs adaptés à des cas d'utilisation spécifiques», a déclaré Naveen Rao, vice-président d'Intel pour Artificial Intelligence Products Group.

Rao a poursuivi: "Cela signifie examiner les besoins spécifiques des applications et réduire la latence en fournissant les meilleurs résultats au plus près des données."

Que feront les puces?

Le processeur de réseau neuronal Nervana pour la formation est conçu pour gérer les données de plusieurs modèles d'apprentissage profond différents dans un budget de puissance. De plus, il le fait tout en offrant des performances élevées et en améliorant l'efficacité de la mémoire.

Ils sont construits avec la flexibilité à l'esprit, fonctionnant autour d'un équilibre entre calcul, communication et mémoire.

Ils sont spécialement créés pour l'inférence et pour accélérer le déploiement du Deep Learning à grande échelle. Faciles à programmer, avec de courtes latences, un portage de code rapide et prenant en charge tous les principaux frameworks d'apprentissage en profondeur, ces puces couvriront un large éventail de capacités.


Voir la vidéo: Intel Unveils New Innovations for the Convergence of HPC u0026 AI (Octobre 2021).