OpenAI zwróciło się do Google, aby polegać na jednostkach przetwarzania tensorowego (TPU) w celu zasilania swoich produktów AI
Według serwisu The Information, OpenAI niedawno zaczęło korzystać z procesorów TPU od Google do zasilania ChatGPT i innych swoich produktów AI. Ta zmiana, cytowana przez anonimowe źródło, ma na celu redukcję kosztów. OpenAI zmagało się z dużym obciążeniem obliczeniowym, co stało się szczególnie widoczne po wprowadzeniu nowej platformy do generowania obrazów na początku tego roku.
Czytaj też: Czego możemy się spodziewać po partnerstwie Apple z F1?
Obecnie rynek boryka się z wysokimi cenami i niedoborami procesorów graficznych Nvidii, co otwiera drogę dla alternatywnych i potencjalnie tańszych rozwiązań. W tej sytuacji Google podobno stara się przekonać dostawców chmury obliczeniowej do przyjęcia swoich chipów TPU. Jeśli firmie uda się to osiągnąć, może to być kluczowy moment na przejęcie znacznej części udziału Nvidii w rynku, dopóki podaż pozostaje czynnikiem ograniczającym.
Czytaj też: Rewolucja w świecie HDMI, przygotujcie się na wersję 2.2
“Zależność OpenAI od infrastruktury Microsoftu i Oracle oznaczała całkowite poleganie na procesorach graficznych Nvidii, z której Oracle jest jednym z największych posiadaczy zasobów w branży. Jeśli jednak OpenAI faktycznie zacznie korzystać z układów TPU Google, będzie to sygnał, że Google skutecznie odbiera monopolistyczną pozycję Nvidii w segmencie high-end AI. Należy również pamiętać o niedawnej, głośnej współpracy OpenAI z Oracle w ramach projektu Startgate.
Czytaj też: Microsoft przedstawia Mu, czyli kompaktowy model AI, który pomoże Ci w personalizacji
Wyjścia są dwa: albo grupa zielonych znajdzie sposób i zaprojektuje tańszy model przeznaczony tylko do sztucznej inteligencji, tak jak modele do kopania kryptowalut, albo Google dzięki ostatnim zastrzykom dofinansowania osiągnie tak dużą moc sprawczą, że rozwinie jeszcze mocniej swój asortyment do AI, stając się godnym przeciwnikiem dla Nvidii na tej półce rynkowej.