Test dysków SSD NVMe: temperatury, throttling i realne transfery

0
36
Rate this post

Nawigacja:

Dlaczego test temperatur i throttlingu w SSD NVMe ma znaczenie

Dlaczego sam wynik w CrystalDiskMark to za mało

Większość testów dysków SSD NVMe kończy się na zrzucie ekranu z CrystalDiskMarka: 7000 MB/s odczytu, 5000 MB/s zapisu, kilka kolorowych słupków i entuzjastyczna ocena. Problem w tym, że takie testy trwają kilkanaście sekund i w ogóle nie pokazują, jak dysk zachowuje się przy długotrwałym obciążeniu, w wysokiej temperaturze, zapełniony w 80% i zamontowany pod gorącą kartą graficzną.

Dla użytkownika końcowego kluczowe są nie tyle liczby z syntetyków, ile realna stabilność transferu i to, czy dysk nie dławi się termicznie po minucie intensywnego zapisu. Dysk, który przez pierwsze 30 sekund pisze 5 GB/s, a potem spada do 600–800 MB/s, potrafi kompletnie zmienić wrażenia z pracy przy montażu wideo czy kompilacji dużych projektów.

Test temperatur i throttlingu pozwala wyłapać różnice między modelami, które na papierze wyglądają identycznie. Dwa SSD z tym samym interfejsem PCIe 4.0 x4 i podobnymi deklarowanymi transferami mogą w praktyce zachowywać się skrajnie odmiennie, jeśli jeden z nich ma słabe zarządzanie termiczne i agresywne obniżanie taktowań przy 70–75°C, a drugi trzyma stabilne 80–82°C bez dramatycznego spadku wydajności.

SSD NVMe a specyfika nagrzewania się

Dyski NVMe w formacie M.2 to małe płytki z kontrolerem, kośćmi NAND i często DRAM-em, upchnięte w okolicy chipsetu i karty graficznej. Przepływ powietrza jest tam zwykle najsłabszy, a obciążenie termiczne – największe. Kontroler NVMe potrafi pobierać kilka watów energii, co przy tak małej powierzchni powoduje bardzo szybki wzrost temperatury.

Jeśli do tego dojdzie brak radiatora, słaby wentylator obudowy lub montaż dysku pod masywną kartą graficzną, scenariusz jest prosty: krótkotrwały wysoki transfer, szybki skok temperatury i throttling. Testy syntetyczne o krótkim czasie trwania nie oddają tego zjawiska. Potrzebne są testy ciągłe, rejestrujące zachowanie dysku w czasie.

Co dokładnie rozumiemy przez throttling w SSD NVMe

Throttling to celowe ograniczanie wydajności dysku przez firmware, aby utrzymać temperaturę w bezpiecznym zakresie. Mechanizm ten jest z definicji pożyteczny, bo chroni kontroler i pamięci NAND przed przegrzaniem i przyspieszonym zużyciem, ale z punktu widzenia użytkownika oznacza nagłe spadki prędkości.

W praktyce można zauważyć kilka typowych objawów throttlingu:

  • wyraźny spadek transferu sekwencyjnego po kilkudziesięciu sekundach zapisu,
  • rosnące opóźnienia przy losowym zapisie/odczycie po dłuższej pracy,
  • skoki temperatury do okolic 70–80°C, po czym nagły spadek transferu,
  • nierówny wykres prędkości w dłuższym teście kopiowania dużego pliku.

Zadaniem rzetelnego testu jest zobaczenie tego momentu załamania i określenie, w jakich warunkach następuje. Dopiero wtedy można uczciwie porównywać dyski między sobą, a nie tylko cytować liczby z ulotki producenta.

Metodologia testów SSD NVMe pod kątem temperatur i throttlingu

Sprzęt testowy i środowisko pracy

Aby ocenić zachowanie dysków NVMe w realnych warunkach, potrzebny jest powtarzalny i dobrze opisany setup. Kilka elementów ma szczególne znaczenie:

  • Płyta główna – istotne jest położenie slotów M.2 (pod GPU, obok chipsetu, z radiatorem lub bez), obsługiwany standard (PCIe 3.0/4.0/5.0) oraz konstrukcja radiatorów fabrycznych.
  • Obudowa i wentylacja – liczba i rozmieszczenie wentylatorów, obecność filtra przeciwkurzowego z przodu, ogólny przepływ powietrza.
  • Karta graficzna – gorące GPU potrafi podnieść temperaturę dysku w slocie M.2 o kilka–kilkanaście stopni, zwłaszcza w konfiguracjach ITX lub z gęsto upakowanymi komponentami.
  • Procesor – jego TDP i sposób chłodzenia (powietrze/AiO) wpływają na ogólną temperaturę wewnątrz obudowy.

Dla rzetelności porównań istotne jest, aby wszystkie testowane dyski pracowały w identycznych warunkach: ten sam slot M.2, to samo ustawienie wentylatorów, ten sam scenariusz obciążenia GPU/CPU. W przeciwnym razie różnice wynikające z chłodzenia mogą przysłonić faktyczne możliwości danego SSD.

Monitorowanie temperatur – jakie narzędzia i parametry

Monitorowanie temperatury SSD NVMe zwykle odbywa się przez odczyt SMART. Standardowy zestaw narzędzi to:

  • CrystalDiskInfo,
  • HWiNFO,
  • HWMonitor,
  • oprogramowanie producenta płyty lub dysku (Samsung Magician, WD Dashboard itp.).

Nowocześniejsze dyski NVMe raportują często kilka czujników:

  • Composite Temperature – ogólna temperatura nośnika, często prezentowana jako główna wartość,
  • Controller Temperature – temperatura samego kontrolera (bywa wyższa niż composite),
  • NAND Temperature – temperatura kości pamięci.

Do oceny throttlingu szczególnie przydaje się logowanie temperatur w czasie. HWiNFO pozwala zapisywać dane do pliku, dzięki czemu można później nałożyć wykres temperatur na wykres prędkości zapisu/odczytu. To ułatwia identyfikację momentu, w którym firmware obniża taktowanie kontrolera.

Scenariusze obciążenia: syntetyczne vs praktyczne

Aby wywołać throttling, nie wystarczy jedno krótkie uruchomienie benchmarku. Przydaje się kilka typów obciążeń:

  • Syntetyczne testy ciągłe – np. długotrwały zapis sekwencyjny 4–8 GB/s narzędziem typu fio lub Iometer; potrafi rozgrzać kontroler do granic możliwości.
  • Kopiowanie bardzo dużego pliku – np. kopiowanie w obrębie tego samego dysku pliku o rozmiarze kilkudziesięciu–kilkuset gigabajtów. Ten scenariusz zwykle obnaża ograniczenia cache SLC i zachowanie po jej zapełnieniu.
  • Losowe operacje 4K – istotne w kontekście obciążeń serwerowych, baz danych czy intensywnej pracy z wieloma małymi plikami; silnie nagrzewa kontroler.
  • Praca mieszana – symulacja realnego użycia: jednoczesny zapis, odczyt, indeksowanie, kompilacja, praca w tle klienta Steam lub innego launchera.

Kluczowe jest, aby obciążenie trwało co najmniej kilka–kilkanaście minut. Wiele dysków osiąga najwyższy poziom temperatury dopiero po 3–5 minutach ciągłego zapisu. Test zakończony po 60 sekundach może w ogóle nie wywołać throttlingu, przez co wynik będzie nadmiernie optymistyczny.

Warunki testu: pusty dysk, częściowo zapełniony, pełny

Zachowanie dysku NVMe zmienia się wraz z poziomem zapełnienia. W testach użyteczne są trzy stany:

  • Prawie pusty – 0–10% zapełnienia; maksymalnie korzystne warunki, duża dostępność wolnych bloków.
  • Użytkowy – 50–70% zapełnienia; typowa sytuacja w komputerze domowym lub roboczym.
  • Prawie pełny – 90–95% zapełnienia; najgorszy scenariusz, narastające zjawisko write amplification, mniejsza przestrzeń robocza dla kontrolera.

Kontroler NVMe, mając mniej wolnego miejsca, musi częściej wykonywać wewnętrzne operacje przenoszenia danych (garbage collection, wear leveling). To generuje dodatkowe ciepło i może przyspieszyć osiągnięcie progu throttlingu. Dlatego porównując wyniki, warto jasno zaznaczyć, przy jakim poziomie zapełnienia były wykonywane testy.

Zbliżenie dysku Lexar NVMe SSD zamontowanego na płytce drukowanej
Źródło: Pexels | Autor: Przemek Leśniewski

Temperatury pracy SSD NVMe – co jest normalne, a co niebezpieczne

Typowe zakresy temperatur w różnych scenariuszach

Dyski SSD NVMe projektowane są pod dość wysokie temperatury pracy. Standardowo producenci deklarują temperaturę roboczą 0–70°C, a czasem nawet nieco wyższą. W praktyce można wyróżnić kilka poziomów:

  • Do 40–45°C – temperatura spoczynku w dobrze wentylowanej obudowie, przy lekkim obciążeniu i/lub bezczynności.
  • 45–60°C – typowa temperatura przy mieszanym obciążeniu (gry, przeglądarka, praca biurowa) w standardowym PC.
  • 60–70°C – intensywne obciążenie sekwencyjne, długotrwały zapis, praca dysku jako głównego magazynu do wideo lub VM; wciąż akceptowalny zakres.
  • 70–80°C – strefa podwyższonego ryzyka; wiele dysków zaczyna w tym zakresie stopniowo ograniczać wydajność.
  • Powyżej 80°C – wartości krytyczne; większość SSD zdecydowanie redukuje prędkość, a część może zgłaszać ostrzeżenia SMART.
Sprawdź też ten artykuł:  Test monitorów ultrapanoramicznych – który model warto kupić w 2025?

Wysoka temperatura nie oznacza od razu awarii, ale przyspiesza zużycie komórek NAND i może zwiększać ryzyko błędów. Dlatego celem konfiguracji powinno być utrzymanie długotrwałego obciążenia w granicach 60–70°C, a krótkotrwałych pików raczej poniżej 75°C.

Różnice między kontrolerem, NAND i composite

Kiedy narzędzie monitorujące pokazuje jedną temperaturę, często jest to tzw. composite, będąca jakąś formą uśrednienia lub temperaturą referencyjną. W rzeczywistości jednak najbardziej nagrzewa się kontroler, a niekoniecznie kości NAND. W niektórych dyskach można zaobserwować:

  • Composite: 60–65°C,
  • Controller: 70–75°C,
  • NAND: 55–60°C.

Jeśli test opiera się wyłącznie na composite, może nie wychwycić sytuacji, w której kontroler lokalnie przekracza swój wewnętrzny próg termiczny i inicjuje throttling, mimo że composite wygląda jeszcze „bezpiecznie”. Dla precyzyjnej diagnozy dobrze jest sprawdzić, czy HWiNFO lub inne zaawansowane narzędzie nie udostępnia osobnych odczytów.

Jak wpływają na temperaturę obudowa, slot i radiator

Na temperaturę SSD NVMe mają ogromny wpływ warunki montażu. Kilka typowych scenariuszy:

  • Slot M.2 nad pierwszym PCIe x16 – zwykle lepsza cyrkulacja powietrza, trochę dalej od karty graficznej, często fabryczny radiator płyty głównej.
  • Slot M.2 pod kartą graficzną – najgorszy wariant; gorące powietrze z GPU „styka się” z dyskiem, radiator płyty nagrzewa się od spodu.
  • Obudowy ITX – ciasne wnętrze, ograniczony przepływ powietrza, często brak miejsca na dodatkowy nawiew w okolicy dysków M.2.
  • Obudowa z dobrym frontem mesh i 2–3 wentylatorami wlotowymi – zdecydowanie korzystniejszy scenariusz; nawiew na sekcję chipset + M.2 może obniżyć temperaturę dysku nawet o 10°C.

W praktyce nawet prosty aluminiowy radiator na M.2 potrafi zmniejszyć temperaturę o 8–15°C przy długotrwałym obciążeniu sekwencyjnym. Jeśli dodatkowo jest owiewany powietrzem z frontowych wentylatorów, efekt jest wyraźny. Z kolei montaż dysku bez radiatora, w ciepłej obudowie, często kończy się throttlingiem przy dłuższym zapisie.

Mechanizmy throttlingu w SSD NVMe

Progi temperaturowe i sposób reakcji kontrolera

Firmware dysku NVMe implementuje określone progi temperatury, przy których podejmowane są działania ochronne. Schemat bywa różny w zależności od producenta, ale dość często wygląda następująco:

  • Soft limit – np. 70–75°C; przy jego osiągnięciu kontroler zmniejsza intensywność operacji, obniża taktowanie, czasem redukuje agresywność kolejkowania I/O.
  • Hard limit – np. 80–85°C; wejście w ten zakres wymusza silny throttling, czyli wyraźne obniżenie prędkości, aby temperatura szybko spadła.
  • Critical limit – okolice 90°C i więcej; niektóre dyski mogą w tym momencie zgłosić błąd, przejść w tryb read-only lub nawet czasowo zniknąć z systemu do chwili ochłodzenia.

Stopniowe ograniczanie wydajności a „twardy mur” prędkości

Przy obserwacji throttlingu dobrze rozróżnić dwa typowe wzorce zachowania dysku. Pierwszy to stopniowe schodki wydajności: po kilku minutach pracy transfer zaczyna nieznacznie spadać, później znowu, aż w końcu stabilizuje się na dużo niższym poziomie. Drugi scenariusz to nagłe uderzenie w „mur”, gdy prędkość w ciągu kilku sekund spada z maksymalnej wartości do np. 1/3–1/4 przepustowości i tam się utrzymuje.

W praktyce część konsumenckich SSD implementuje miękki profil: najpierw lekkie ograniczenie IOPS i częstotliwości kontrolera, potem – jeśli temperatura nadal rośnie – zdecydowany zjazd do bezpiecznego poziomu. Z dyskiem serwerowym bywa odwrotnie: firmware pozwala na bardziej agresywną pracę do określonego pułapu, a potem gwałtownie tnie wydajność, aby nie dopuścić do przekroczenia twardej granicy temperaturowej.

Na wykresie wygląda to następująco:

  • przy stopniowym throttlingu mamy serię delikatnych „tarasów” – transfery fluktuują, ale średnia wciąż jest zadowalająca,
  • przy twardym progu następuje ostry uskok prędkości, a temperatura zaczyna się obniżać w kilka–kilkanaście sekund.

Interpretacja takiego wykresu jest kluczowa, gdy porównuje się dwa modele SSD: dysk, który po 10 minutach ustabilizuje się na 60–70% deklarowanego transferu, często będzie w realnym zastosowaniu korzystniejszy niż model, który przez 30–40 sekund jest rekordzistą, a później przez cały czas „zatyka się” na znacznie niższym poziomie.

Throttling termiczny a ograniczenia wynikające z cache SLC

Spadek prędkości dysku NVMe nie zawsze ma związek z przegrzewaniem. Drugim kluczowym mechanizmem jest wyczerpanie wewnętrznego bufora SLC. Wiele nowoczesnych nośników TLC/QLC wykorzystuje część komórek w trybie SLC jako cache zapisu. Dopóki zapis mieści się w tej przestrzeni, transfery są zbliżone do wartości z materiałów marketingowych. Po jej zapełnieniu prędkość potrafi spaść kilkukrotnie.

W praktyce wygląda to tak: kopiujesz duży katalog gier lub kilkudziesięciogigabajtowy materiał wideo. Przez pierwszych kilkanaście–kilkadziesiąt sekund dysk utrzymuje stałe 3–5 GB/s. Potem transfer „przykleja się” do 800–1200 MB/s, a bywa, że nawet niżej. Jeśli w tym samym czasie temperatura pozostaje relatywnie niska (np. poniżej 60–65°C) i brak objawów twardego throttlingu, problemem nie jest przegrzewanie, lecz praca poza cache SLC.

Dobrze przeprowadzony test rozdziela oba zjawiska:

  • najpierw krótkie obciążenie, aby zaobserwować zachowanie w ramach SLC,
  • następnie długi zapis ciągły, który zapełni cache i pokaże realną wydajność „po zderzeniu z rzeczywistością”,
  • dla obu faz monitoring temperatury, aby sprawdzić, kiedy spadki wynikają z termiki, a kiedy z ograniczeń architektury pamięci.

Przy opisywaniu wyników dobrze jest odróżnić: „spadek z powodu throttlingu termicznego” od „spadku po zapełnieniu cache SLC”. Dla użytkownika, który montuje dysk np. do montażu wideo 4K lub pracy z masywną biblioteką zdjęć RAW, ta różnica jest istotniejsza niż wyniki krótkich testów syntetycznych.

Wpływ protokołu PCIe i generacji na grzanie dysku

Różne generacje PCIe i liczba linii używana przez dysk także przekładają się na temperaturę. Nośnik PCIe 3.0 x4 osiąga maksymalny teoretyczny transfer niższy niż PCIe 4.0 x4, więc rzeczywiste obciążenie kontrolera bywa mniejsze. Z kolei szybkie konstrukcje PCIe 4.0 x4 i 5.0 x4 są w stanie wykonywać znacząco więcej operacji w jednostce czasu, co prowadzi do wyższego wydzielania ciepła.

Dwa scenariusze z praktyki:

  • ten sam model dysku podłączony w starszym PC z kontrolerem PCIe 3.0 osiąga niższe transfery szczytowe, ale także niższe temperatury maksymalne,
  • płyta główna z PCIe 4.0 i szybkim procesorem pozwala „rozkręcić” dysk do pełni możliwości, co skutkuje bardzo krótkimi czasami kopiowania, ale też znacznie szybszym osiąganiem progu throttlingu.

Z punktu widzenia testów istotne jest, aby jasno określić konfigurację platformy: generację PCIe, tryb pracy slotu (x2/x4), a także to, czy w BIOS/UEFI włączony jest tryb oszczędzania energii kontrolera. W przeciwnym razie porównywanie wyników między różnymi platformami nie ma większego sensu.

Dysk NVMe SSD obok tradycyjnego HDD i płyty CD na biurku
Źródło: Pexels | Autor: Andrey Matveev

Jak projektować wiarygodne testy SSD NVMe

Dobór narzędzi i parametrów testu

Do pomiarów można wykorzystać zarówno popularne benchmarki z interfejsem graficznym, jak i narzędzia konsolowe. Kluczowe jest nie tyle samo „logo” programu, co sposób jego konfiguracji. Z punktu widzenia temperatur i throttlingu liczy się:

  • czas trwania testu – co najmniej kilka minut dla sekwencyjnego zapisu/odczytu,
  • wielkość testowanych danych – tak dobrana, by nie mieściła się w całości w cache SLC,
  • głębokość kolejek (QD) – zbyt niska nie rozgrzeje kontrolera, zbyt wysoka będzie mało reprezentatywna dla typowego desktopu,
  • rodzaj testu – sekwencyjny, losowy, mieszany; każdy ma inne implikacje dla termiki.

Przykładowo: konfiguracja fio z zapisem sekwencyjnym, blokami 1–4 MB, czasem trwania 10–15 minut i QD 8–16 pozwala dobrze ocenić zachowanie przy długotrwałym transferze wideo czy kopiowaniu dużych plików. Z kolei test losowy 4K z QD 32 rozgrzeje kontroler do granic możliwości, ale będzie bliższy obciążeniom serwerowym niż domowym.

Rejestrowanie danych: wykresy, logi, powtarzalność

Jednorazowy strzał benchmarka i odczyt maksymalnych wartości z okna programu niewiele mówi o realnym działaniu SSD. Potrzebne są ciągłe logi, zarówno z narzędzia testującego, jak i monitorującego temperatury. Dobry schemat pracy wygląda tak:

  1. Uruchom monitoring HWiNFO z logowaniem do pliku CSV (temperatury, taktowania – jeśli dostępne, podstawowe parametry SMART).
  2. W tym samym czasie wystartuj wybrany test zapisu/odczytu z dokładnie opisanymi parametrami (czas, rozmiar bloku, QD, profil obciążenia).
  3. Po zakończeniu testu zanalizuj logi, nanosząc na jeden wykres temperaturę i prędkość transferu.

Dzięki temu da się wskazać konkretny moment, gdy przy danej temperaturze pojawił się pierwszy skok lub plateau w wydajności. Taki punkt jest bardziej miarodajny niż abstrakcyjny „soft limit 75°C” podawany przez producenta.

Kolejna sprawa to powtarzalność. Ten sam scenariusz obciążenia powinien być uruchomiony przynajmniej 2–3 razy, z resetem systemu lub co najmniej z przerwą na ochłodzenie dysku. Jeśli wyniki znacznie się różnią między kolejnymi przebiegami, to sygnał, że w test wchodzą dodatkowe czynniki (np. inne procesy w tle, buforowanie RAM przez system, zapchany TRIM).

Przygotowanie dysku do testu: TRIM, zapełnienie, stan kontrolera

Aby test był miarodajny, dysk powinien znajdować się w przewidywalnym stanie. Kilka prostych kroków bardzo pomaga:

Sprawdź też ten artykuł:  Test domowych magazynów energii – Tesla Powerwall vs EcoFlow Delta Pro

  • upewnienie się, że systemowe TRIM działa (w Windows: defragmentacja i optymalizacja dysków → optymalizuj SSD),
  • jeśli to możliwe, przywrócenie dysku do stanu fabrycznego poprzez secure erase lub funkcję producenta – przy testach porównawczych kilku modeli,
  • odczekanie kilku minut bez obciążenia po dużym zapisie, aby kontroler mógł wykonać garbage collection przed kolejnym testem,
  • jasne opisanie stanu zapełnienia przy każdym pomiarze (np. „~60% zajętości, po wcześniejszym teście zapisu 200 GB”).

Bez takich informacji wykres prędkości staje się trudny do interpretacji. Dysk, który w pierwszym przebiegu wygląda na bardzo szybki, przy drugim – wykonanym na „zmęczonym” nośniku, może nagle wypaść znacznie gorzej. Nie zawsze będzie to wina samej konstrukcji, czasem to efekt nieuporządkowanego stanu wewnętrznej mapy bloków.

Jak interpretować realne transfery w codziennym użytkowaniu

Kiedy throttling jest odczuwalny dla użytkownika

Nie każdy przypadek obniżenia prędkości ma znaczenie w praktyce. Jeśli SSD osiąga throttling dopiero po kilku minutach ciągłego zapisu 3–5 GB/s, większość domowych zastosowań w ogóle tego nie zauważy. Kilka typowych sytuacji:

  • Uruchamianie systemu i aplikacji – dominują krótkie, intensywne odczyty; temperatura zwykle zdąży wzrosnąć o kilka stopni, ale nie na tyle, by uruchomić ograniczenia.
  • Gry – typowy scenariusz to krótkie piki odczytu przy wczytywaniu map i zasobów; throttling termiczny jest tu rzadki, bardziej liczy się wydajność losowa niż sekwencyjna.
  • Praca biurowa, przeglądarka – obciążenie dysku jest dorywcze, a ilość zapisów niska; nawet gorzej chłodzony SSD rzadko zbliży się do soft limitu.

Problemy zaczynają się przy zadaniach intensywnie zapisujących duże ilości danych:

  • montaż i eksport wideo w wysokich rozdzielczościach,
  • praca z dużymi projektami CAD/BIM,
  • gęsto zapisujące maszyny wirtualne,
  • serwery plików, NAS-y na bazie PC, stacje robocze z wieloma kontenerami.

W takich scenariuszach pierwsze minuty mogą być bardzo szybkie, a potem kopiowanie „zdycha” do znacznie niższych wartości. Użytkownik widzi to jako spadek z np. 3 GB/s do 800 MB/s po kilku chwilach – i często błędnie uznaje, że „dysk jest uszkodzony”. Do rzetelnej diagnozy konieczne jest zestawienie tej obserwacji z temperaturą oraz informacją, czy nie doszło właśnie do zapełnienia cache SLC.

Marketingowe „do 7 GB/s” a rzeczywistość

Deklarowane przez producentów wartości typu „do 7 GB/s” odnoszą się zwykle do:

  • czysto sekwencyjnego odczytu,
  • pracy w warunkach laboratoryjnych (chłodzenie, świeży dysk, niski poziom zapełnienia),
  • zapisów mieszczących się w całości w buforze SLC.

W codziennej pracy niewiele operacji faktycznie korzysta z takiej prędkości w sposób ciągły. Przeglądarka, pakiet biurowy, komunikatory czy większość gier wykorzystuje ułamki potencjału teoretycznego PCIe 4.0. Z tego powodu zakup najszybszego możliwego modelu NVMe rzadko ma sens, jeśli komputer nie jest realnie wykorzystywany do długotrwałych, ciężkich zadań I/O.

Przy analizie testów lepiej zwrócić uwagę na:

  • stabilność transferu długoterminowego (np. po 5–10 minutach zapisu),
  • czas trwania fazy pełnej prędkości zanim zacznie działać throttling lub skończy się cache,
  • wydajność losową 4K/8K przy niskich głębokościach kolejek (QD 1–4), bo to częsty realny scenariusz w desktopie.

Jeśli w tabeli testowej widać, że jeden dysk utrzymuje 70–80% prędkości nominalnej przy długim zapisie, a inny spada do 20–30%, drugi model będzie bardziej podatny na objawy „mulenia” w wymagających zastosowaniach – nawet jeśli teoretyczne maksimum obaj mają podobne.

Specyfika realnych kopii plików vs benchmarki syntetyczne

Benchmark syntetyczny zwykle pracuje na z góry zdefiniowanych blokach danych, z jednym rodzajem obciążenia i minimalną ingerencją systemu operacyjnego (o ile jest dobrze skonfigurowany). Kopiowanie plików w systemie to zupełnie inna historia: w grę wchodzi buforowanie RAM, antywirus, indeksowanie wyszukiwarki, czasem kompresja lub szyfrowanie.

W praktyce dlatego podczas zwykłego kopiowania dużego katalogu gier lub projektu wideo pasek postępu w Eksploratorze plików potrafi wykonywać efektowną „sinusoidę”: część wahań to dynamika cache RAM, część – zachowanie SLC i wewnętrzny garbage collection dysku, a dopiero reszta to ewentualny throttling termiczny. Analizując wynik, trzeba brać poprawkę na ten wieloskładnikowy charakter obciążenia.

NVMe w obudowie desktopowej i laptopie: inne warunki, inne temperatury

Ten sam model SSD potrafi zachowywać się diametralnie inaczej w różnych platformach. Kluczowe są trzy elementy: przepływ powietrza, położenie gniazda M.2 oraz najbliższe źródła ciepła.

W typowym desktopie płyta główna ma 1–3 sloty M.2. Jeden z nich często ląduje tuż pod gniazdem PCIe x16, zajmowanym przez kartę graficzną. Przy masywnej, gorącej GPU dysk bywa dosłownie „przypiekany” strumieniem powietrza wyrzucanego przez chłodzenie karty – zwłaszcza przy układzie z wentylatorami DMUCHAJĄCYMI w dół, prosto na laminat płyty.

W laptopach jest jeszcze ciaśniej: SSD bywa skręcony w okolicach sekcji zasilania CPU/GPU, z minimalnym lub żadnym przepływem powietrza. Nawet jeśli nominalnie ma ten sam kontroler, co wariant desktopowy, temperatury robocze będą wyższe, a throttling pojawi się szybciej.

  • W obudowie z dobrym frontowym wlotem i dwoma wentylatorami z przodu ten sam dysk może utrzymywać ~20°C mniej niż w „dusznym” mini-ITX bez nawiewu na płytę.
  • W ultrabooku cienka aluminiowa klapka działająca jako pseudo-radiator często rozkłada ciepło na większą powierzchnię, ale przy długim obciążeniu całość nagrzewa się do wysokiej temperatury i throttling staje się nieunikniony.

Przy porównywaniu testów z różnych recenzji dobrze jest zawsze sprawdzić, w jakich warunkach pracował dysk: otwarty „test bench”, przewiewna wieża z dodatkowymi wentylatorami czy gęsto zabudowany laptop gamingowy. Bez tego wnioski o „gorących” i „chłodnych” modelach potrafią być złudne.

Radiatory M.2, termopady i obieg powietrza

Sekcja chłodzenia SSD NVMe wywołuje kontrowersje głównie dlatego, że sama obecność radiatora nie gwarantuje niższej temperatury. Liczy się cały łańcuch odprowadzania ciepła:

  1. dobry kontakt kontrolera i kości NAND z termopadem,
  2. realna powierzchnia wymiany ciepła (kształt, grubość, żebrowanie radiatora),
  3. strumień powietrza, który zabiera energię z radiatora dalej.

Często spotykany scenariusz: gruby, „gamingowy” radiator na płycie głównej z ogromnym napisem RGB, ale zbyt twardym termopadem i zerowym przepływem powietrza. Kontroler dotyka go tylko punktowo, więc temperatury poprawiają się symbolicznie. Z kolei skromny, niskoprofilowy radiator z miękkim termopadem, owiewany frontowym wentylatorem, potrafi zbić odczyty o kilkanaście stopni.

Przy montażu pomaga kilka prostych zasad:

  • termopad nie powinien być nadmiernie ściskany; po skręceniu radiatora warto sprawdzić, czy nie ma przerw w odcisku na jego powierzchni,
  • jeśli płyta oferuje fabryczny radiator, a obudowa ma ograniczone miejsce, lepiej użyć tego rozwiązania niż dokładanie „analogicznego” z zestawu dysku, co bywa źródłem konfliktu mechanicznego z GPU,
  • w małych obudowach SFF dwie niewielkie „piętnastki” kierujące powietrze na płytę główną często są skuteczniejsze niż masywny radiator bez przepływu.

Dla użytkownika liczy się nie tyle sama temperatura szczytowa, co czasu trwania fazy bez throttlingu. Często wystarcza nawet skromny zabieg poprawiający warunki cieplne o 5–10°C, by pod ciężkim zapisem wydłużyć ten czas kilkukrotnie.

Oszczędzanie energii a temperatury i wydajność NVMe

W nowoczesnych platformach duży wpływ na zachowanie SSD mają tryby oszczędzania energii – zarówno na poziomie systemu operacyjnego, jak i samego interfejsu PCIe (ASPM, stan L1.2 itd.). Niektóre konfiguracje:

  • redukują temperaturę w spoczynku,
  • wprowadzają minimalne opóźnienia przy „wybudzaniu” dysku,
  • czasem ograniczają maksymalne taktowanie kontrolera pod ciągłym obciążeniem.

W laptopach tryb „zrównoważony” lub „oszczędzanie energii” potrafi trzymać SSD przez większą część czasu w stanach niskiej aktywności – dzięki temu kontroler i NAND mają więcej „przerw na ochłodę” między krótkimi operacjami I/O. Skutkiem ubocznym bywają jednak krótkie „mikroprzycięcia” przy pierwszym odczycie po dłuższej bezczynności.

W stacjonarnych stacjach roboczych, gdzie liczy się przewidywalna responsywność, część użytkowników świadomie wyłącza agresywne tryby power saving dla PCIe i dysków. Pozwala to utrzymać wyższe, ale stabilne temperatury, z minimalnym czasem reakcji na żądania I/O. Warto wtedy dopilnować, by obudowa miała sensowny nawiew, inaczej SSD będzie permanentnie gorący, niezależnie od realnego obciążenia.

Różnice między kontrolerami i generacjami PCIe

Porównując SSD NVMe, łatwo skupić się jedynie na generacji PCIe (3.0, 4.0, 5.0) i ilości kanałów NAND. Tymczasem realne temperatury i sposób wchodzenia w throttling w dużym stopniu zależą od użytego kontrolera oraz jego firmware’u.

Na rynku spotyka się konstrukcje:

  • energooszczędne, 4-kanałowe – często stosowane w tańszych modelach PCIe 4.0, z umiarkowanymi maksymalnymi transferami, lecz przyjemnie chłodne w długim obciążeniu,
  • wydajne, 8-kanałowe – zdolne do bardzo wysokich sekwencyjnych prędkości, ale przy długim zapisie bez dobrego chłodzenia szybko osiągające granicę temperaturową,
  • kontrolery PCIe 5.0 – często wyposażone w dodatkowe mechanizmy zarządzania energią, ale mimo to generujące znacznie więcej ciepła niż ich odpowiedniki PCIe 3.0.

Firmware może agresywnie bronić kontrolera przed wysoką temperaturą, wprowadzając szybko kolejne poziomy ograniczeń (np. „schodki” prędkości), albo pozwalać na krótkie wejścia w wysokie temperatury i dopiero potem reagować mocnym zacięciem transferu. To dlatego dwa dyski z pozornie zbliżonymi parametrami katalogowymi potrafią na wykresach wyglądać zupełnie inaczej.

Sprawdź też ten artykuł:  Windows 12 – czy warto szybko aktualizować?

Analizując testy, rozsądnie jest szukać oprócz surowych liczb również informacji o:

  • rodzaju kontrolera (producent, model),
  • rodzaju NAND (TLC/QLC oraz liczba warstw),
  • wersji firmware, z którą wykonano testy.

Przy aktualizacjach firmware’u potrafi zmienić się nie tylko stabilność, ale i sposób zarządzania throttlingiem – część producentów po skargach użytkowników przesuwa progi temperatur, inni spłaszczają wykres, zmniejszając początkową „turbo” fazę, by zapewnić bardziej równą wydajność.

Cache SLC a interpretacja spadków prędkości

Przy testowaniu długotrwałych transferów łatwo pomylić koniec bufora SLC z throttlingiem termicznym. Oba zjawiska objawiają się spadkiem prędkości, ale mają inne przyczyny i przebieg.

Cache SLC (stały lub dynamiczny) to szybka „warstwa wierzchnia”, na którą kontroler zapisuje dane z wysoką prędkością, a później w tle przenosi je do wolniejszej komórki TLC/QLC. Gdy bufor zostanie wypełniony i kontroler nie zdąży go opróżnić, prędkość zapisu:

  • spada zazwyczaj skokowo do pewnej niższej, ale względnie stabilnej wartości,
  • może falować w rytm opróżniania i ponownego wypełniania cache,
  • niekoniecznie koreluje z gwałtownym wzrostem temperatury.

Throttling termiczny wygląda zwykle inaczej: wraz z rosnącą temperaturą prędkość stopniowo obniża się do poziomu, przy którym kontroler stabilizuje się cieplnie. Często widać to jako płynne wyhamowanie transferu i zatrzymanie temperatury na danym poziomie.

Najprostsza metoda rozróżnienia tych dwóch zjawisk:

  1. porównać przebieg temperatury z przebiegiem prędkości – spadek bez wyraźnego skoku temperatury wskazuje na cache SLC,
  2. sprawdzić objętość zapisanego ciągiem materiału – jeśli spadek następuje np. po kilkudziesięciu gigabajtach, często kończy się właśnie bufor.

Przy analizie realnych kopii plików (bez syntetyków) można też zaobserwować charakterystyczne „fale” – krótkie przyspieszenie, spadek, ponowne przyspieszenie. To typowy wzór pracy cache SLC, niekoniecznie związany z przegrzewaniem.

NVMe w roli dysku systemowego vs dysku roboczego

W praktycznych konfiguracjach dominuje podział na:

  • dysk systemowy – z systemem, aplikacjami, grami,
  • dysk roboczy – do projektów, renderów, baz danych czy surowych plików wideo.

W pierwszej roli krytyczna jest responsywność pod lekkim, ale częstym obciążeniem. Temperatury rzadko zbliżają się do limitów, a throttling niemal się nie pojawia. Nawet dysk z umiarkowanie wydajnym kontrolerem, ale dobrym firmwarem, w takim scenariuszu zapewni płynne działanie. Ekstremalne wartości sekwencyjne mają tu najmniejsze znaczenie.

Dysk roboczy w rękach osoby obrabiającej materiały wideo, grafiki 3D czy duże projekty programistyczne żyje w innym świecie. Kilkadziesiąt minut lub kilka godzin intensywnych zapisów i odczytów powoduje, że:

  • temperatura potrafi osiągnąć okolice soft limitu z katalogu,
  • cache SLC stale się zapełnia i opróżnia,
  • każda niedoskonałość w chłodzeniu szybko wychodzi na wierzch.

Przy takim profilu użycia opłaca się:

  • wybrać model z udokumentowanie stabilnym transferem przy długim zapisie,
  • zapewnić mu możliwie najlepszą pozycję na płycie (z dala od GPU, pod radiatorem z nawiewem),
  • rozważyć podział zadań między dwa dyski – jeden do materiałów źródłowych, drugi do katalogów roboczych i plików tymczasowych.

Nawet prosta zmiana kolejności montażu („systemowy dysk w cieplejszym slocie, roboczy w chłodniejszym”) może w praktyce poprawić komfort pracy pod ciągłym obciążeniem.

Specyficzne zagrożenia termiczne w małych formatach i zewnętrznych obudowach

Mini-PC, NUC‑i, stick‑PC oraz zewnętrzne obudowy NVMe (USB/Thunderbolt) to osobna kategoria problemów. Fizycznie jest tam mało miejsca na radiator, a jednocześnie przy szybkich interfejsach transfery bywałyby wystarczające, by rozgrzać dysk w ciągu minut.

W małych komputerach producenci często stosują cienkie, płaskie radiatory z termopadem przyklejonym do obudowy. Taki układ działa, dopóki cała konstrukcja ma styczność z chłodniejszym otoczeniem i jest chociaż minimalnie owiewana powietrzem. W zamkniętej szafce RTV czy przy pracy w wysokiej temperaturze otoczenia margines bezpieczeństwa topnieje błyskawicznie.

Zewnętrzne obudowy NVMe do backupu lub pracy z plikami wideo bywają jeszcze bardziej kłopotliwe:

  • część modeli nie ma żadnego sensownego radiatora, a tylko cienki pasek aluminium,
  • współdzielą ciepło między kontrolerem USB/Thunderbolt a samym SSD,
  • często pracują bez przerwy podczas kopiowania lub zgrywania dużej ilości danych.

Jeśli w testach widać spadki prędkości przy kopiowaniu materiałów na zewnętrzny dysk NVMe, przyczyną bywa nie tylko ograniczenie samego interfejsu (np. USB 3.x), ale właśnie przegrzewanie się układu w ciasnej obudowie. W takim zastosowaniu lepiej sprawdzają się:

  • obudowy z pełnowymiarowym, żebrowanym radiatorem,
  • konfiguracje, w których dysk nie jest permanentnie zapchany (więcej miejsca = mniejsze obciążenie GC),
  • używanie krótkich, intensywnych sesji pracy zamiast wielogodzinnych maratonów kopii „ciągniętych” jednym ciągiem.

Jak czytać wykresy temperatur i prędkości w recenzjach

Wyniki testów dysków SSD często przytłaczają ilością wykresów. Z punktu widzenia termiki i throttlingu można jednak wyciągnąć sensowne wnioski, skupiając się na kilku charakterystycznych fragmentach:

  1. Początek obciążenia – jak szybko rośnie temperatura przy wejściu na pełną prędkość i czy widać krótką fazę „turbo”, po której od razu następuje lekki spadek.
  2. Najczęściej zadawane pytania (FAQ)

    Dlaczego CrystalDiskMark nie wystarczy do oceny dysku SSD NVMe?

    CrystalDiskMark mierzy głównie krótkotrwałe, syntetyczne transfery sekwencyjne i losowe. Taki test trwa zwykle kilkanaście sekund, więc pokazuje tylko to, jak dysk zachowuje się „na zimno”, gdy kontroler i kości NAND nie zdążą się jeszcze rozgrzać.

    W praktyce o komforcie pracy decyduje wydajność przy dłuższym, ciągłym obciążeniu – np. kopiowaniu dużych plików, montażu wideo czy kompilacji kodu. Tego typu scenariusze mogą doprowadzić do nagrzania dysku i throttlingu, czego krótki benchmark syntetyczny po prostu nie wychwyci.

    Co to jest throttling w dyskach SSD NVMe i czy jest groźny?

    Throttling to mechanizm obniżania wydajności (taktowania kontrolera, intensywności operacji) przez firmware dysku w sytuacji, gdy temperatura zbliża się do niebezpiecznego progu. Celem jest ochrona kontrolera i pamięci NAND przed przegrzaniem oraz przedwczesnym zużyciem.

    Sam throttling nie jest groźny dla sprzętu – wręcz przeciwnie, ma go chronić. Jest jednak niekorzystny z punktu widzenia użytkownika, bo oznacza nagłe spadki prędkości zapisu/odczytu, zwłaszcza po kilkudziesięciu sekundach intensywnego obciążenia. Dlatego w testach warto sprawdzić, przy jakiej temperaturze i po jakim czasie dysk zaczyna dławienie.

    Jak sprawdzić temperaturę dysku SSD NVMe i wykryć throttling?

    Temperaturę SSD NVMe można odczytać z czujników SMART za pomocą programów takich jak: CrystalDiskInfo, HWiNFO, HWMonitor czy narzędzi producenta (np. Samsung Magician, WD Dashboard). Nowsze dyski raportują zwykle kilka wartości, m.in. Composite Temperature (ogólna) oraz temperaturę kontrolera i NAND.

    Aby wykryć throttling, najlepiej włączyć logowanie temperatur i jednocześnie przeprowadzić dłuższy test obciążenia (kilka–kilkanaście minut ciągłego zapisu lub kopiowania bardzo dużego pliku). Jeśli na wykresie widać, że po osiągnięciu np. 70–80°C transfer gwałtownie spada i stabilizuje się na niższym poziomie, to jest to typowy objaw throttlingu.

    Jakie temperatury dla SSD NVMe są normalne, a jakie zbyt wysokie?

    Większość SSD NVMe jest projektowana do pracy w zakresie około 0–70°C. W dobrze wentylowanej obudowie temperatury spoczynkowe mieszczą się zwykle w przedziale 30–45°C. Przy typowym, mieszanym obciążeniu (gry, przeglądarka, praca biurowa) dysk często pracuje w zakresie 45–60°C.

    Przy długotrwałym, intensywnym zapisie sekwencyjnym temperatura może wzrosnąć do 60–70°C, a w gorszych warunkach (słaby przepływ powietrza, brak radiatora, dysk pod gorącą kartą graficzną) nawet wyżej. W okolicach 70–80°C wiele modeli zaczyna throttling, co objawia się wyraźnym spadkiem transferu. Długotrwała praca powyżej deklarowanego przez producenta maksimum nie jest zalecana i może skrócić żywotność nośnika.

    Czy dysk SSD NVMe koniecznie potrzebuje radiatora?

    W lekkich zastosowaniach (praca biurowa, przeglądarka, okazjonalne gry) część SSD NVMe poradzi sobie bez radiatora, zwłaszcza w przewiewnej obudowie. Jednak przy dłuższych, ciężkich zadaniach – montaż wideo, duże transfery, bazy danych – radiator bardzo pomaga w utrzymaniu stabilnej temperatury i w opóźnieniu lub ograniczeniu throttlingu.

    Radiator staje się szczególnie istotny, gdy dysk jest zamontowany tuż pod lub nad gorącą kartą graficzną, w małej obudowie ITX albo gdy slot M.2 znajduje się blisko chipsetu. W praktyce, jeśli płyta główna ma fabryczne radiatory na M.2, zdecydowanie warto z nich korzystać.

    Dlaczego wydajność SSD NVMe spada, gdy dysk jest prawie pełny?

    Gdy dysk NVMe jest mocno zapełniony (np. 90–95%), kontroler ma mało wolnych bloków do dyspozycji. Musi częściej wykonywać wewnętrzne operacje przenoszenia danych (garbage collection, wear leveling), co zwiększa tzw. write amplification, generuje dodatkowe ciepło i obciąża kontroler.

    W efekcie rosną opóźnienia, spadają prędkości zapisu po dłuższym obciążeniu, a dysk może szybciej osiągać temperaturę, przy której zaczyna się throttling. Dlatego w rzetelnych testach porównuje się wydajność i temperatury w kilku scenariuszach zapełnienia: prawie pusty, typowo używany (50–70%) i prawie pełny.

    Jakie testy najlepiej pokazują realne zachowanie SSD NVMe?

    Do oceny realnej pracy dysku NVMe przydatne są przede wszystkim dłuższe testy ciągłe, a nie tylko krótkie benchmarki. Obejmują one m.in.:

    • długotrwały zapis sekwencyjny narzędziami typu fio/Iometer (kilka–kilkanaście minut),
    • kopiowanie w obrębie dysku jednego bardzo dużego pliku (dziesiątki–setki GB), co ujawnia zachowanie po zapełnieniu cache SLC,
    • obciążenia mieszane (zapis + odczyt + praca w tle), z włączonym logowaniem temperatur i transferów.

    Dopiero takie scenariusze pozwalają zobaczyć, po jakim czasie i przy jakiej temperaturze dysk zaczyna throttling oraz jak bardzo spada jego wydajność w porównaniu z krótkim testem syntetycznym.

    Najbardziej praktyczne wnioski

    • Syntetyczne benchmarki typu CrystalDiskMark są niewystarczające – pokazują tylko krótkotrwałe maksimum, a nie długotrwałą, realną wydajność SSD NVMe.
    • Dla użytkownika kluczowa jest stabilność transferu przy długim obciążeniu; dysk, który po kilkudziesięciu sekundach spada z kilku GB/s do setek MB/s, może poważnie spowolnić pracę.
    • Dwa dyski o podobnych deklarowanych parametrach (PCIe, transfery z ulotki) mogą diametralnie różnić się w praktyce przez odmienne zarządzanie temperaturą i progi throttlingu.
    • SSD NVMe w formacie M.2 łatwo się przegrzewają z powodu dużej gęstości mocy, słabego przepływu powietrza wokół slotu i często braku radiatora, zwłaszcza pod gorącą kartą graficzną.
    • Throttling jest celowym mechanizmem ochronnym firmware’u, ale z perspektywy użytkownika objawia się nagłymi spadkami prędkości, rosnącymi opóźnieniami i „poszarpanym” wykresem transferu.
    • Rzetelne testy muszą zapewniać identyczne warunki dla wszystkich dysków (ten sam slot M.2, chłodzenie, obciążenie GPU/CPU), inaczej wyniki zafałszuje różnica w temperaturach.
    • Skuteczne badanie throttlingu wymaga ciągłych, długich scenariuszy obciążenia i logowania temperatur (np. HWiNFO), aby powiązać moment spadku wydajności z osiąganymi wartościami termicznymi.