Skip to main content
Jeśli klikniesz link i dokonasz zakupu, możemy otrzymać małą prowizję. Zobacz politykę redakcyjną.

Nvidia zarabia miliardy, choć karty graficzne sprzedają się słabiej

Spadek o 46 procent.

Nvidia zarobiła w ostatnim kwartale ubiegłego roku 1,4 mld dolarów, nawet w obliczu znacznego spowolnienia w kluczowym segmencie gier, gdzie przychody spadły aż o 46 procent.

„Zieloni” w czasie pandemii bili finansowe rekordy, w 2021 roku notując choćby 5 mld dolarów przychodów w jednym kwartale. Dzisiaj takie wyniki to już coś normalnego. Opisywany, ostatni kwartał 2022 r. to 6,05 mld dolarów przychodów, napędzanych głównie przez sprzedaż układów do wielkich serwerowni (3,6 mld dol.). Dobrze poradził sobie także segment motoryzacyjny (choć to nadal „tylko” 294 mln dol.).

Drugim filarem Nvidii - obok serwerów - już od bardzo dawna jest właśnie gałąź gier wideo, gdzie spowolnienie w porównaniu z końcówką 2021 roku było bardzo duże i wyniosło 46 procent, do poziomu 1,8 mld dolarów przychodów (w porównaniu z 3,42 mld rok wcześniej).

Korporacja tłumaczy się między innymi „zmniejszeniem dostaw zintegrowanych układów dla konsol”. Jedyną konsolą napędzaną przez „zielonych” jest Switch, więc komunikat jest jasny - sprzęt Nintendo starzeje się i cieszy coraz mniejszym zainteresowaniem.

W kwestii kart graficznych dla PC firma „zmniejsza sprzedaż do partnerów, by pomóc zsynchronizować poziom zapasów z obecnym popytem”. Tłumacząc korpo-mowę na język ludzi, Nvidia woli zmniejszyć dostawy niż obniżyć ceny, nawet jeśli zbyt wysokie koszty zakupu to główny punkt krytyki rodziny RTX 4000.

Nie bez znaczenia jest fakt, że szerszy rynek komputerów osobistych cierpi właśnie z powodu zalegających w magazynach zapasów z czasów Covid-19. Firma Jon Peddie Research (JPR) szacowała niedawno, że ogólne dostawy kart graficznych są najniższe od co najmniej dekady.

Dyrektor generalny Jensen Huang podczas rozmowy z inwestorami mówił głównie o segmencie serwerów, gdzie spodziewa się dalszych wzrostów, z powodu coraz większego znaczenie sztucznej inteligencji. Modele „uczenia” algorytmów na bazie wielkich baz danych są bowiem włączane często na układach GPU.

Read this next