Το Inference.ai αντιστοιχίζει φόρτους εργασίας AI με υπολογιστές GPU cloud
Η ικανότητα των GPU να εκτελούν πολλούς υπολογισμούς παράλληλα τα καθιστά κατάλληλα για την εκτέλεση του πιο ικανού AI του σήμερα. Ωστόσο, οι GPU γίνονται πιο δύσκολες στις προμήθειες, καθώς εταιρείες όλων των μεγεθών αυξάνουν τις επενδύσεις τους σε προϊόντα που λειτουργούν με τεχνητή νοημοσύνη.
Οι κάρτες AI με τις καλύτερες επιδόσεις της Nvidia
Εξαντλημένα
πέρυσι και ο Διευθύνων Σύμβουλος της TSMC
προτείνεται
ότι η γενική προσφορά θα μπορούσε να περιοριστεί μέχρι το 2025. Το πρόβλημα είναι τόσο οξύ, στην πραγματικότητα, που έχει την προσοχή της Ομοσπονδιακής Επιτροπής Εμπορίου των ΗΠΑ — ο οργανισμός πρόσφατα
ανακοινώθηκε
διερευνά αρκετές συνεργασίες μεταξύ νεοφυών επιχειρήσεων τεχνητής νοημοσύνης και γιγάντων cloud, όπως η Google και η AWS, σχετικά με το εάν οι νεοσύστατες εταιρείες ενδέχεται να έχουν αντιανταγωνιστική, προνομιακή πρόσβαση στον υπολογισμό της GPU.
Ποια είναι η λύση; Εξαρτάται από τους πόρους σας, πραγματικά. Κολοσσοί τεχνολογίας όπως η Meta, η Google, η Amazon και η Microsoft αγοράζουν ό,τι GPU μπορούν και αναπτύσσουν τα δικά τους προσαρμοσμένα τσιπ. Οι επιχειρήσεις με λιγότερους πόρους βρίσκονται στο έλεος της αγοράς — αλλά δεν χρειάζεται να είναι έτσι για πάντα, λένε οι John Yue και Michael Yu.
Ο Yue και ο Yu είναι οι συνιδρυτές του
Συμπέρασμα.ai
, μια πλατφόρμα που παρέχει υποδομή ως υπηρεσία υπολογισμού cloud GPU μέσω συνεργασιών με κέντρα δεδομένων τρίτων. Το Inference χρησιμοποιεί αλγόριθμους για να ταιριάξει τους φόρτους εργασίας των εταιρειών με πόρους GPU, λέει ο Yue — με στόχο να απομακρύνει τις εικασίες από την επιλογή και την απόκτηση υποδομής.
«Το συμπέρασμα φέρνει σαφήνεια στο μπερδεμένο τοπίο υλικού για ιδρυτές και προγραμματιστές με νέα τσιπ που προέρχονται από Nvidia, Intel, AMD, Groq [and so on] — επιτρέποντας υψηλότερη απόδοση, χαμηλότερη καθυστέρηση και χαμηλότερο κόστος», είπε ο Yue. «Τα εργαλεία και η ομάδα μας επιτρέπουν στους υπεύθυνους λήψης αποφάσεων να φιλτράρουν τον πολύ θόρυβο και να βρουν γρήγορα τη σωστή εφαρμογή για το έργο τους».
Το Inference ουσιαστικά παρέχει στους πελάτες μια παρουσία GPU στο cloud, μαζί με 5 TB αποθήκευσης αντικειμένων. Η εταιρεία ισχυρίζεται ότι – χάρη στην τεχνολογία αλγοριθμικής αντιστοίχισης και τις συμφωνίες με τους χειριστές κέντρων δεδομένων – μπορεί να προσφέρει δραματικά φθηνότερο υπολογισμό GPU με καλύτερη διαθεσιμότητα από τους μεγάλους δημόσιους παρόχους cloud.
«Η αγορά των φιλοξενούμενων GPU προκαλεί σύγχυση και αλλάζει καθημερινά», είπε ο Yue. «Επιπλέον, είδαμε ότι οι τιμές ποικίλλουν έως και 1000% για την ίδια διαμόρφωση. Τα εργαλεία και η ομάδα μας επιτρέπουν στους υπεύθυνους λήψης αποφάσεων να φιλτράρουν πολύ τον θόρυβο και να βρουν γρήγορα την κατάλληλη για το έργο τους.»
Τώρα, το TechCrunch δεν μπόρεσε να δοκιμάσει αυτούς τους ισχυρισμούς. Αλλά ανεξάρτητα από το αν είναι αληθινά, το Inference έχει ανταγωνισμό — και πολύ.
Δείτε: CoreWeave, ένας πάροχος λειτουργίας εξόρυξης κρυπτογράφησης που έγινε GPU, που είναι
σύμφωνα με πληροφορίες
αναμένεται να συγκεντρώσει έσοδα περίπου 1,5 δισεκατομμυρίων δολαρίων έως το 2024. Ο στενός ανταγωνιστής της, η Lambda Labs,
εξασφαλισμένη
300 εκατομμύρια δολάρια σε επιχειρηματικά κεφάλαια τον περασμένο Οκτώβριο. Υπάρχει επίσης το Together — ένα σύννεφο GPU — για να μην αναφέρουμε startups όπως το Run.ai και το Exafunction, που στοχεύουν στη μείωση του κόστους προγραμματισμού AI αφαιρώντας το υποκείμενο υλικό.
Ωστόσο, οι επενδυτές της Inference φαίνεται να πιστεύουν ότι υπάρχει χώρος για έναν άλλο παίκτη. Η νεοσύστατη εταιρεία έκλεισε πρόσφατα έναν κύκλο 4 εκατομμυρίων δολαρίων από τις Cherubic Ventures, Maple VC και Fusion Fund, το οποίο ο Yue λέει ότι προορίζεται για τη δημιουργία της υποδομής ανάπτυξης της Inference.
Σε μια δήλωση που εστάλη μέσω ηλεκτρονικού ταχυδρομείου, ο Matt Cheng του Cherubic πρόσθεσε:
«Οι απαιτήσεις για ικανότητα επεξεργασίας θα συνεχίσουν να αυξάνονται καθώς η τεχνητή νοημοσύνη είναι το θεμέλιο τόσων πολλών από τα σημερινά προϊόντα και συστήματα. Είμαστε βέβαιοι ότι η ομάδα Inference, με τις προηγούμενες γνώσεις της σε υλικό και υποδομές cloud, έχει ό,τι χρειάζεται για να πετύχει. Αποφασίσαμε να επενδύσουμε επειδή οι επιταχυνόμενες υπηρεσίες υπολογιστών και αποθήκευσης οδηγούν την επανάσταση της τεχνητής νοημοσύνης και το προϊόν Inference θα τροφοδοτήσει το επόμενο κύμα ανάπτυξης της τεχνητής νοημοσύνης».
VIA:
techcrunch.com

