Η AMD κυκλοφορεί νέα τσιπ για να τροφοδοτήσει την ταχύτερη εκπαίδευση AI



Η AMD θέλει οι άνθρωποι να θυμούνται ότι η Nvidia δεν είναι η μόνη εταιρεία που πουλά

τεχνητής νοημοσύνης. Ανακοινώθηκε η διαθεσιμότητα νέων επιταχυντών και επεξεργαστών που είναι προσανατολισμένοι στην εκτέλεση μεγάλων γλωσσικών μοντέλων ή LLM.

Ο κατασκευαστής τσιπ αποκάλυψε τον επιταχυντή Instinct MI300X και τη μονάδα επιταχυνόμενης επεξεργασίας Instinct M1300A (APU), η οποία σύμφωνα με την εταιρεία λειτουργεί για την εκπαίδευση και τη λειτουργία LLM. Η εταιρεία είπε ότι το MI300X έχει 1,5 φορές μεγαλύτερη χωρητικότητα μνήμης από την προηγούμενη έκδοση M1250X. Και τα δύο νέα προϊόντα έχουν καλύτερη χωρητικότητα μνήμης και είναι πιο ενεργειακά αποδοτικά από τους προκατόχους τους, δήλωσε η AMD.

«Τα LLM συνεχίζουν να αυξάνονται σε μέγεθος και πολυπλοκότητα, απαιτώντας τεράστιες ποσότητες μνήμης και υπολογισμού», δήλωσε η CEO της AMD Lisa Su. «Και γνωρίζουμε ότι η διαθεσιμότητα των GPU είναι ο μοναδικός πιο σημαντικός μοχλός υιοθέτησης της τεχνητής νοημοσύνης».

Ο Su είπε κατά τη διάρκεια μιας παρουσίασης ότι ο MI300X «είναι ο επιταχυντής με τις υψηλότερες επιδόσεις στον κόσμο». Ισχυρίστηκε ότι το MI300X είναι συγκρίσιμο με τα τσιπ H100 της Nvidia στην εκπαίδευση LLM, αλλά έχει καλύτερη απόδοση από την πλευρά των συμπερασμάτων — 1,4 φορές καλύτερα από το H100 όταν εργάζεται με το Llama 2 της Meta, ένα LLM 70 δισεκατομμυρίων παραμέτρων.

Η AMD συνεργάστηκε με τη Microsoft για να βάλει το MI300X στις εικονικές μηχανές Azure. Ο CTO της Microsoft Kevin Scott, προσκεκλημένος κατά τη διάρκεια της ομιλίας του Su, ανακοίνωσε επίσης το

Εικονικές μηχανές Azure ND MI300X

— αποκαλύφθηκε για πρώτη φορά τον Νοέμβριο — είναι πλέον διαθέσιμα σε προεπισκόπηση. Η Meta ανακοίνωσε επίσης ότι θα αναπτύξει επεξεργαστές MI300 στα κέντρα δεδομένων της.

Η Su είπε ότι η AMD κυκλοφόρησε την APU MI300A για κέντρα δεδομένων, τα οποία, όπως είπε, αναμένεται να αυξήσουν τη συνολική διευθυνσιοδοτήσιμη αγορά της στα 45 δισεκατομμύρια δολάρια. Οι APU γενικά συνδυάζουν CPU και GPU για ταχύτερη επεξεργασία. Η AMD είπε ότι το MI300A προσφέρει υπολογιστές υψηλότερης απόδοσης, ταχύτερη εκπαίδευση μοντέλων και 30 φορές βελτίωση της ενεργειακής απόδοσης. Σε σύγκριση με το H100, η ​​AMD είπε ότι έχει 1,6 φορές μεγαλύτερη χωρητικότητα μνήμης. Διαθέτει επίσης ενοποιημένη μνήμη, επομένως δεν χρειάζεται πλέον να μετακινείτε δεδομένα από διαφορετικές συσκευές.

Το MI300A θα τροφοδοτεί τον υπερυπολογιστή El Capitan που κατασκευάστηκε από την Hewlett Packard Enterprise στο Εθνικό Εργαστήριο Lawrence Livermore. Ο El Capitan θεωρείται ένας από τους πιο ισχυρούς υπερυπολογιστές και αναμένεται να προσφέρει περισσότερα από δύο exaflops απόδοσης.

Το MI300A APU «είναι τώρα στην παραγωγή και ενσωματώνεται σε κέντρα δεδομένων».

Οι πληροφορίες τιμολόγησης δεν ήταν άμεσα διαθέσιμες.

Ο Su πείραξε τα τσιπ MI300 κατά τη διάρκεια της διάσκεψης κώδικα, λέγοντας ότι η AMD ήταν ενθουσιασμένη με την ευκαιρία να αξιοποιήσει περισσότερους χρήστες τσιπ, όχι μόνο από παρόχους cloud, αλλά και από επιχειρήσεις και νεοσύστατες επιχειρήσεις.

Η AMD ανακοίνωσε επίσης την τελευταία προσθήκη στους επεξεργαστές της Ryzen, τον Ryzen 8040, ο οποίος μπορεί να βάλει περισσότερες εγγενείς λειτουργίες AI σε κινητές συσκευές. Η εταιρεία είπε ότι η σειρά 8040 προσφέρει 1,6 φορές περισσότερη απόδοση επεξεργασίας AI από τα προηγούμενα μοντέλα και ενσωματώνει μονάδες νευρικής επεξεργασίας (NPU).

Η εταιρεία είπε ότι το Ryzen 8040 δεν θα περιοριστεί στην επεξεργασία τεχνητής νοημοσύνης, καθώς ισχυρίστηκε ότι η επεξεργασία βίντεο θα ήταν 65 τοις εκατό ταχύτερη και το gaming θα ήταν 77 τοις εκατό ταχύτερο από ό,τι με ανταγωνιστικά προϊόντα όπως τα τσιπ της

.

Η AMD αναμένει κατασκευαστές όπως η Acer, η Asus, η Dell, η HP, η Lenovo και η

να κυκλοφορήσουν προϊόντα που ενσωματώνουν τσιπ Ryzen 8040 το πρώτο τρίμηνο του 2024.

Η Su είπε ότι η επόμενη γενιά των NPU της Strix Point θα κυκλοφορήσει το 2024.

Η AMD ανακοίνωσε επίσης ότι η πλατφόρμα λογισμικού Ryzen AI είναι πλέον ευρέως διαθέσιμη, η οποία θα επιτρέψει στους προγραμματιστές που κατασκευάζουν μοντέλα τεχνητής νοημοσύνης σε

που τροφοδοτούνται με Ryzen να φορτώσουν μοντέλα στη NPU, ώστε η CPU να μπορεί να μειώσει την κατανάλωση ενέργειας. Οι χρήστες θα λάβουν υποστήριξη για μοντέλα βάσης όπως το

αναγνώρισης ομιλίας Whisper και LLM όπως το Llama 2.

Για να τροφοδοτήσουν μοντέλα τεχνητής νοημοσύνης – και να επωφεληθούν από την τρέχουσα διαφημιστική εκστρατεία για την τεχνολογία – εταιρείες όπως η AMD, η Nvidia και η Intel έχουν εγκλωβιστεί σε αυτό που είναι βασικά ένας αγώνας εξοπλισμών με τσιπ τεχνητής νοημοσύνης. Μέχρι στιγμής, η Nvidia κατέλαβε το μεγαλύτερο μερίδιο αγοράς με τις πολυπόθητες GPU H100 που χρησιμοποιούνται για την εκπαίδευση μοντέλων όπως το GPT του OpenAI.


VIA:

theverge.com


Leave A Reply



Cancel Reply

Your email address will not be published.