Η Samsung αναπτύσσει νέα τεχνολογία μνήμης HBM3E και απορρίπτει την Nvidia για τη Micron


Η

λέει ότι έχει αναπτύξει την πρώτη 12-stack HBM3E 12H DRAM

κλάδου, ξεπερνώντας την τεχνολογία

και δυνητικά θέτοντας το υπόβαθρο για την επόμενη γενιά καρτών AI της Nvidia.

Το HBM3E 12H του τεχνολογικού γίγαντα της Νότιας Κορέας προσφέρει εύρος ζώνης έως και 1.280 GB/s και κορυφαία στον κλάδο χωρητικότητα 36 GB, που αντιπροσωπεύει βελτίωση άνω του 50% σε σχέση με το HBM3 8H 8 στοίβων.

Το HBM3E 12H 12 στοίβων χρησιμοποιεί προηγμένο μη αγώγιμο φιλμ θερμικής συμπίεσης (TC NCF), το οποίο επιτρέπει στα προϊόντα 12 στρωμάτων να πληρούν τις τρέχουσες απαιτήσεις πακέτου HBM διατηρώντας παράλληλα τις ίδιες προδιαγραφές ύψους με εκείνα 8 στρώσεων. Αυτές οι εξελίξεις οδήγησαν σε αύξηση 20% στην κατακόρυφη πυκνότητα σε σύγκριση με το προϊόν HBM3 8H της Samsung.

Η μάχη θερμαίνεται

«Οι πάροχοι υπηρεσιών τεχνητής νοημοσύνης του κλάδου απαιτούν ολοένα και περισσότερο HBM με υψηλότερη χωρητικότητα και το νέο μας προϊόν HBM3E 12H έχει σχεδιαστεί για να ανταποκρίνεται σε αυτή την ανάγκη», δήλωσε ο Yongcheol Bae, Εκτελεστικός Αντιπρόεδρος Σχεδιασμού Προϊόντων Μνήμης στη Samsung Electronics. «Αυτή η νέα λύση μνήμης αποτελεί μέρος της προσπάθειάς μας προς την ανάπτυξη βασικών τεχνολογιών για HBM υψηλής στοίβας και την παροχή τεχνολογικής ηγετικής θέσης για την αγορά HBM υψηλής χωρητικότητας».

Εν τω μεταξύ, η Micron ξεκίνησε τη μαζική παραγωγή των 24 GB 8H HBM3E της, η οποία θα χρησιμοποιηθεί στις τελευταίες

Tensor Core GPU της Nvidia. Η Micron ισχυρίζεται ότι το HBM3E της καταναλώνει 30% λιγότερη

από τους ανταγωνιστές της, καθιστώντας το ιδανικό για εφαρμογές παραγωγής τεχνητής νοημοσύνης.

Παρά την απώλεια της πιο ακριβής κάρτας AI της Nvidia, η μνήμη HBM3E 12H των 36 GB της Samsung ξεπερνά τις επιδόσεις της Micron 24 GB 8H HBM3E όσον αφορά τη χωρητικότητα και το εύρος ζώνης. Καθώς οι εφαρμογές τεχνητής νοημοσύνης συνεχίζουν να αυξάνονται, το 12H HBM3E της Samsung θα είναι μια προφανής επιλογή για μελλοντικά συστήματα που απαιτούν περισσότερη μνήμη, όπως το B100 Blackwell AI της Nvidia, το οποίο αναμένεται να κυκλοφορήσει μέχρι το τέλος του τρέχοντος έτους.

Η Samsung έχει ήδη ξεκινήσει τη δειγματοληψία του 36GB HBM3E 12H στους πελάτες, με τη μαζική παραγωγή να αναμένεται να ξεκινήσει το πρώτο εξάμηνο του τρέχοντος έτους. Η Micron πρόκειται να ξεκινήσει την αποστολή 24 GB 8H HBM3E το δεύτερο τρίμηνο του 2024. Ο ανταγωνισμός μεταξύ των δύο τεχνολογικών κολοσσών στην αγορά HBM αναμένεται να ενταθεί καθώς η ζήτηση για λύσεις μνήμης υψηλής χωρητικότητας συνεχίζει να αυξάνεται στην εποχή της τεχνητής νοημοσύνης.


VIA:

TechRadar.com/


Follow TechWar.gr on Google News