Du nouveau dans les puces d'Alexa

Du nouveau dans les puces d'Alexa

Jeudi, Amazon a indiqué sur le blog dédié à AWS un changement concernant Alexa. L'assistant vocal du groupe bénéficie dorénavant de puces maison.

Publié le 13-11-2020 par Alexandra Nuiry

Après Apple, voilà qu' Amazon revendique lui aussi l'usage de composants créés en interne. Selon l'article de Seb Stomarcq, 'une majorité' des puces dédiées au traitement des données envoyées par les utilisateurs via Alexa sont dorénavant des Inferentia, développées par Amazon depuis 2018.


Il s'agit d'un changement technique en arrière-plan, et non dans les appareils, qui représente un gain de 25 % en termes de latence et de 30 % en termes de coût par rapport au matériel Nvidia utilisé jusqu'alors. Il devient donc possible pour les développeurs de traiter les données plus précisément sans pourtant allonger le temps nécessaire à l'analyse de la requête.


Un gain de temps et d'argent


Avec son Inferentia, premier silicium maison du groupe, Amazon souhaite accélérer le traitement des tâches de machine learning dont le volume est conséquent. La pièce a été conçue pour offrir des performances d'inférence élevées dans le cloud, sur lequel s'appuie Alexa. Son potentiel s'élève ainsi à 128 téra-opérations par seconde. L'Inferentia a également l'avantage de réduire les coûts en supprimant un intermédiaire. Quant au design de la pièce, il a été assuré par Anapurna Labs, une structure rachetée par Amazon en 2015.


Outre Alexa, Seb Stomarcq a précisé que Rekognition, le système de reconnaissance faciale s'appuyant sur le cloud, allait être lui aussi doté du silicium du groupe. Dans son article, il cite quelques clients extérieurs ayant recours à l'Inferentia. Parmi eux, Snap Inc. pour son application Snapchat ou encore le groupe Condé Nast. Elle est également utilisée par l'assureur Anthem. Amazon en offre ainsi l'utilisation à ses clients AWS gratuitement.

 

Les dernières actualités