Retour d'expérience de développeurs utilisant la plateforme Mac et le langage Mojo
Le langage Mojo permet de calculer jusqu'à 1 000 tokens par seconde. Pour de nombreux développeurs, le Mac est l'une des meilleures plateformes pour l'inférence.
"Pour ceux qui se demandent pourquoi le M2 Ultra est si rapide, ou les séries M1 et M2 en général, c'est parce que le principal goulot d'étranglement d'inference est la bande passante de la mémoire, et non la puissance de calcul. Et le M2 Ultra a une bande passante de 800 Go/s, ce qui est environ 8 fois plus rapide qu'un processeur de bureau moderne moyen (la mémoire DDR4-6400 à double canal offre une bande passante de 102 Go/s)."
"PyTorch prend désormais suffisamment en charge les appareils Apple siliconés pour que l'inférence, même avec de très grands modèles, soit extrêmement rapide.
"Dans le cadre d'une démarche significative visant à améliorer les capacités de son cadre d'apprentissage automatique, Apple a annoncé l'ouverture de Core ML Stable Diffusion XL (SDXL) pour son architecture de silicium Apple de pointe. Le nouveau modèle, dont la taille a été multipliée par trois et qui compte environ 2,6 milliards de paramètres, apporte une foule de fonctionnalités puissantes qui améliorent les performances tout en préservant l'efficacité..."
"Le système CPU+GPU intégré aux puces Apple est idéal pour l'apprentissage automatique.
Découvrez nos configurations disponibles pour les développeurs IA, ML
Mac mini Mac Studio Demande de devis