Η Google ανακοινώνει το Next-Gen Cloud TPU v5p AI Accelerator Chips & AI Hypercomputer



Η Google έχει

ανακοινώθηκε

Ο «πιο ισχυρός» επεκτάσιμος και ευέλικτος επιταχυντής τεχνητής νοημοσύνης της εταιρείας, ονόμασε το Cloud TPU v5p μαζί με ένα νέο μοντέλο AI Υπερυπολογιστή.

Με τις ταχέως εξελισσόμενες αγορές τεχνητής νοημοσύνης, οι εταιρείες κινούνται προς τις λύσεις τους όσον αφορά την παροχή υπολογιστικής ισχύος σε συνεχείς εξελίξεις. Εταιρείες όπως η

με το Maia 100 AI Accelerator και η Amazon με το Trainium2 στοχεύουν να ξεπεράσουν η μία την άλλη όταν πρόκειται για υλικό βελτιστοποιημένο για την απόδοση για την αντιμετώπιση του φόρτου εργασίας της τεχνητής νοημοσύνης και η Google έχει πράγματι προσχωρήσει στη λίστα.

Τώρα η Google αποκάλυψε πολλά συναρπαστικά στοιχεία, όπως το νέο μοντέλο Gemini για τον κλάδο της τεχνητής νοημοσύνης, αλλά η κάλυψή μας θα επικεντρωθεί περισσότερο στην πλευρά του υλικού των πραγμάτων. Το Cloud TPU v5p είναι το πιο ικανό και οικονομικά αποδοτικό TPU (Cloud Tensor Processing Unit) της Google μέχρι

. Κάθε TPU v5p pod αποτελείται από ένα τεράστιο αριθμό 8.960 τσιπ που διασυνδέονται χρησιμοποιώντας τη σύνδεση μεταξύ τσιπ υψηλότερου εύρους ζώνης στα 4.800 Gbps ανά τσιπ, εξασφαλίζοντας γρήγορες ταχύτητες μεταφοράς και βέλτιστη απόδοση. Η Google δεν θέλει να συγκρατηθεί, καθώς τα επερχόμενα άλματα γενεών θα σας καταπλήξουν.

Πηγή εικόνας: Google Cloud

Σε σύγκριση με το TPU v4, το νέο v5p που κυκλοφόρησε έρχεται με δύο φορές μεγαλύτερο FLOPS (Λειτουργίες κινητής υποδιαστολής ανά δευτερόλεπτο) και τρεις φορές μεγαλύτερο εύρος ζώνης υψηλής μνήμης, κάτι που είναι εκπληκτικό όταν ληφθεί υπόψη στον τομέα της τεχνητής νοημοσύνης.

Επιπλέον, όσον αφορά την εκπαίδευση μοντέλων, το TPU v5p δείχνει ένα άλμα 2,8 φορές γενεών στις ταχύτητες εκπαίδευσης LLM. Η Google δημιούργησε επίσης χώρο για να αποσπάσει περισσότερη υπολογιστική ισχύ καθώς το TPU v5p είναι “4 φορές πιο επεκτάσιμο από το TPU v4 όσον αφορά τα συνολικά διαθέσιμα FLOP ανά pod”.

Η Google ανακοινώνει το Next-Gen Cloud TPU v5p AI Accelerator Chips & AI Hypercomputer, Η Google ανακοινώνει το Next-Gen Cloud TPU v5p AI Accelerator Chips & AI Hypercomputer, TechWar.gr
Η Google ανακοινώνει το Next-Gen Cloud TPU v5p AI Accelerator Chips & AI Hypercomputer, Η Google ανακοινώνει το Next-Gen Cloud TPU v5p AI Accelerator Chips & AI Hypercomputer, TechWar.gr

Συνοψίζοντας τα πράγματα για το τσιπ Google Cloud TPU v5p AI:

  • 2X Περισσότερα Flops έναντι TPU v4 (459 TFLOPs Bf16 / 918 TOPs INT8)
  • 3 φορές μεγαλύτερη χωρητικότητα μνήμης έναντι TPU v4 (95 GB HBM)
  • 2,8Χ ταχύτερη εκπαίδευση LLM
  • Εκπαίδευση μοντέλων 1,9Χ ταχύτερη ενσωμάτωση-πυκνά
  • 2,25 φορές περισσότερο εύρος ζώνης έναντι TPU v4 (2765 GB/s έναντι 1228 GB/s)
  • Εύρος ζώνης 2X Interchip Interconnect έναντι TPU v4 (4800 Gbps έναντι 2400 Gbps)

Η Google έχει αναγνωρίσει τη φαινομενική επιτυχία όταν πρόκειται να διαθέτει τους καλύτερους πόρους υλικού και λογισμικού ενσωματωμένο, γι’ αυτό η εταιρεία διαθέτει έναν υπερυπολογιστή AI, ο οποίος είναι ένα “σύνολο” στοιχείων που έχουν σχεδιαστεί για να λειτουργούν σε συνεργασία για να επιτρέπουν σύγχρονους φόρτους εργασίας AI. Η Google έχει ενσωματώσει

με βελτιστοποιημένη απόδοση, βέλτιστη αποθήκευση μαζί με υγρή ψύξη για να αξιοποιήσει τις τεράστιες δυνατότητες όλες μαζί, για απόδοση που είναι πράγματι ένα από μόνο του θαύμα της βιομηχανίας.

Πηγή εικόνας: Google Cloud

Από την πλευρά του λογισμικού, η Google έχει εντείνει τα πράγματα με τη χρήση ανοιχτού λογισμικού για να συντονίζει τους φόρτους εργασίας της AI για να εξασφαλίσει την καλύτερη απόδοση με το υλικό της. Ακολουθεί μια σύνοψη των πόρων λογισμικού που προστέθηκαν πρόσφατα στον AI Hypercomputer:

  • Η εκτεταμένη υποστήριξη για δημοφιλή πλαίσια ML όπως το JAX, το TensorFlow και το PyTorch είναι διαθέσιμη αμέσως. Τόσο το JAX όσο και το PyTorch τροφοδοτούνται από τον μεταγλωττιστή OpenXLA για τη δημιουργία εξελιγμένων LLM. Το XLA χρησιμεύει ως θεμελιώδης ραχοκοκαλιά, επιτρέποντας τη δημιουργία πολύπλοκων μοντέλων πολλαπλών επιπέδων (εκπαίδευση στο Llama 2 και εξαγωγή συμπερασμάτων σε Cloud TPU με PyTorch/XLA). Βελτιστοποιεί τις κατανεμημένες αρχιτεκτονικές σε ένα ευρύ φάσμα πλατφορμών υλικού, διασφαλίζοντας εύχρηστη και αποτελεσματική ανάπτυξη μοντέλων για διαφορετικές περιπτώσεις χρήσης τεχνητής νοημοσύνης (το AssemblyAI αξιοποιεί τα JAX/XLA και Cloud TPU για ομιλία AI μεγάλης κλίμακας).
  • Το ανοιχτό και μοναδικό λογισμικό Multislice Training και Multihost Inferencing, αντίστοιχα, κάνουν την κλιμάκωση, την εκπαίδευση και την εξυπηρέτηση του φόρτου εργασίας ομαλή και εύκολη. Οι προγραμματιστές μπορούν να κλιμακωθούν σε δεκάδες χιλιάδες τσιπ για να υποστηρίξουν απαιτητικούς φόρτους εργασίας AI.
  • Βαθιά ενοποίηση με το Google Kubernetes Engine (GKE) και το Google Compute Engine, για την παροχή αποτελεσματικής διαχείρισης πόρων, συνεπών λειτουργικών περιβαλλόντων, αυτόματης κλιμάκωσης, αυτόματης παροχής κόμβων, αυτόματου ελέγχου, αυτόματης επανάληψης και έγκαιρης αποκατάστασης αστοχιών.

Η επαναστατική προσέγγιση της Google στην

είναι αρκετά εμφανής με το νέο της σύνολο στοιχείων υλικού και λογισμικού, τα οποία όλα πρόκειται να σπάσουν τα εμ

που περιορίζουν τη βιομηχανία. Θα είναι ενδιαφέρον να δούμε πώς οι νέες μονάδες επεξεργασίας Cloud TPU v5p, σε συνδυασμό με τη βοήθεια AI Hypercomputer στις συνεχιζόμενες εξελίξεις, αλλά ένα πράγμα είναι βέβαιο, σίγουρα θα αυξήσουν τον ανταγωνισμό.

Πηγή ειδήσεων:

Google Cloud


VIA:

wccftech.com


Leave A Reply



Cancel Reply

Your email address will not be published.