GetUSB.info Logo

High Bandwidth Flash: kan NAND zich eindelijk als geheugen gedragen?

high bandwidth flash can nand finally act like memory

AI-infrastructuur heeft een manier om grenzen bloot te leggen waar de meeste systemen nooit tegenaan lopen.

In de eerdere stukken hebben we gekeken naar hoe high bandwidth memory voor AI-workloads data zo dicht mogelijk bij de GPU houdt, en hoe storage class memory tussen DRAM en NAND helpt om de kloof tussen actief geheugen en traditionele flashopslag glad te strijken. Beide lagen bestaan omdat het systeem zich niet kan veroorloven om te wachten, zelfs niet voor korte momenten, zonder efficiëntie te verliezen.

Maar er is nog een andere richting waarin de industrie zich beweegt, en die draait niet om het introduceren van een volledig nieuw type geheugen.

In plaats daarvan neemt men iets dat al bestaat, NAND-flash, en duwt men het in een rol waarvoor het oorspronkelijk niet bedoeld was.

Daar begint het idee van High Bandwidth Flash in beeld te komen.

Het probleem dat NAND nooit bedoeld was om op te lossen

NAND-flash is altijd gebouwd rond een eenvoudig idee: veel data efficiënt opslaan en die terughalen wanneer dat nodig is.

Voor de meeste workloads werkt dat model prima. Data staat in de opslag, het systeem vraagt erom, en de SSD levert die snel genoeg aan zodat bijna niemand de vertraging echt opmerkt.

AI-workloads veranderen die dynamiek.

In plaats van af en toe lezen en schrijven, trekken deze systemen voortdurend data parallel naar binnen, vaak over duizenden threads tegelijk, met heel weinig tolerantie voor inconsistentie in de levering. Het gaat niet alleen om snelheid op zichzelf, maar om het vasthouden van een constante datastroom die de rekenkant volledig benut houdt.

Daar beginnen de beperkingen van traditioneel NAND-gedrag zichtbaar te worden.

Zelfs high-performance NVMe-drives, met diepe wachtrijen en sterke throughputcijfers, werken nog steeds binnen een opslagmodel dat uitgaat van pieken in activiteit, niet van een continue, geheugenachtige stroom van toegang.

Dus de vraag wordt: wat gebeurt er als je NAND niet langer als opslag behandelt, maar het meer gaat behandelen als onderdeel van het geheugensysteem?

Wat “High Bandwidth Flash” eigenlijk betekent

High Bandwidth Flash is geen formele standaard en ook geen enkele productcategorie.

Je kunt het beter zien als een architectonische richting, en daar begint het zich ook te onderscheiden van wat we behandelden bij High Bandwidth Memory.

High Bandwidth Memory is nog steeds geheugen. Het is DRAM, gebouwd en gepositioneerd om extreem snelle toegang te leveren doordat het fysiek dicht bij de processor zit. Het hele punt van HBM is nabijheid en lagere latency, data zo dicht mogelijk bij compute brengen zodat die vrijwel direct toegankelijk is.

High Bandwidth Flash lost een ander probleem op. Het accepteert dat NAND verder weg in het systeem zit en hogere latency met zich meebrengt, en richt zich er in plaats daarvan op om veel grotere hoeveelheden data parallel te verplaatsen zodat die afstand minder zwaar weegt.

Eenvoudig gezegd: HBM gaat over geheugen sneller maken door het dichterbij te brengen. High Bandwidth Flash gaat over opslag sneller laten aanvoelen door te veranderen hoe die wordt benaderd.

Dat onderscheid is belangrijk, want het doel hier is niet om NAND in DRAM te veranderen. Het doel is om NAND bruikbaar te maken in situaties waarin traditionele opslag het systeem anders zou vertragen.

Die verschuiving gebeurt op systeemniveau, niet alleen op medianiveau.

In plaats van één enkele SSD die verzoeken op de traditionele manier afhandelt, zie je steeds vaker veel NAND-kanalen die parallel werken, controllers die ontworpen zijn voor gelijktijdigheid in plaats van alleen capaciteit, bredere datapaden via PCIe Gen5- en Gen6-interfaces, en softwarelagen die data anticiperen en klaarzetten voordat die wordt opgevraagd.

Alles bij elkaar genomen nemen deze veranderingen de inherente latency van NAND niet weg, maar ze verkleinen wel hoe vaak die latency de beperkende factor in het systeem wordt.

Een andere manier om over bandbreedte na te denken

Wanneer mensen “hoge bandbreedte” horen, denken ze meestal aan pure snelheid.

Maar in deze context gaat bandbreedte eigenlijk over hoeveel data er tegelijk verplaatst kan worden, en hoe consistent die verplaatsing volgehouden kan worden.

AI-workloads hebben niet alleen snelle toegang nodig, maar voorspelbare toegang op schaal.

Als een GPU-cluster data ongelijkmatig binnenhaalt, kunnen zelfs kleine variaties ervoor zorgen dat delen van het systeem stilvallen. Vermenigvuldig dat over honderden of duizenden nodes, en die inefficiënties beginnen zichtbaar te worden op manieren die lastig te negeren zijn.

High Bandwidth Flash is een poging om dat glad te strijken, niet door de eigenschappen van NAND te elimineren, maar door het te omringen met genoeg parallelisme en intelligentie zodat die eigenschappen minder zwaar wegen voor het totale systeem.

De magazijnanalogie verder doortrekken

Als we hetzelfde magazijnmodel uit de eerdere artikelen blijven gebruiken, dan is NAND altijd de hoofdopslagvloer geweest.

Dat is de plek waar alles ligt, georganiseerd in rijen en schappen, geoptimaliseerd voor dichtheid en efficiëntie in plaats van voor toegangssnelheid.

DRAM is het laadperron, waar het actieve werk gebeurt. SCM is het staginggebied er direct achter.

High Bandwidth Flash verandert hoe het magazijn werkt.

In plaats van één medewerker die de gangpaden in loopt om artikelen één voor één te pakken, heb je nu meerdere laadperrons tegelijk open, verschillende heftrucks die parallel bewegen, en artikelen die vooraf worden klaargezet op basis van wat het systeem verwacht hierna nodig te hebben.

Het magazijn zelf is fundamenteel niet veranderd, maar de manier waarop het wordt benaderd wel.

Je verandert het magazijn niet in het laadperron, je laat het magazijn zich gedragen alsof het er veel dichter bij ligt.

Hoe dit in de praktijk wordt gebouwd

Het meeste van wat High Bandwidth Flash mogelijk maakt, komt niet uit het NAND zelf, maar uit de lagen eromheen.

Controllers spelen nu een grotere rol in hoe data wordt verdeeld, met een focus op parallelle operaties over meerdere NAND-dies en kanalen in plaats van alleen het beheren van capaciteit en slijtage. Tegelijkertijd blijft de interfacebandbreedte groeien, waardoor deze systemen meer ruimte krijgen om data te verplaatsen zonder dat de bus de beperkende factor wordt.

Wat echter het grootste verschil maakt, is hoe de software met de hardware omgaat.

Data wordt niet meer alleen opgehaald op het moment dat die wordt opgevraagd. Ze wordt voorspeld, klaargezet, gecachet en georganiseerd op manieren die aansluiten bij hoe AI-workloads zich gedragen. Dat betekent toegangspatronen vooraf inschatten, vaak gebruikte data dichter bij de top van de stack houden en minimaliseren hoe vaak het systeem moet terugvallen op tragere paden.

Niets daarvan verandert NAND in echt geheugen, maar het stelt NAND wel in staat om actiever deel te nemen aan het geheugensysteem dan voorheen.

Wat het nog steeds niet is

Ondanks al deze vooruitgang is het belangrijk om de verwachtingen realistisch te houden.

High Bandwidth Flash maakt NAND niet gelijkwaardig aan DRAM. Het is nog steeds block-based, heeft nog steeds hogere latency dan welke vorm van echt geheugen ook, en blijft sterk afhankelijk van controllers en software om goed te presteren in veeleisende omgevingen.

Die beperkingen verdwijnen niet, ze worden alleen effectiever beheerd via systeemontwerp.

Waar dit past binnen AI-infrastructuur

In echte deployments duikt High Bandwidth Flash op in systemen die extreem grote datasets moeten verwerken zonder alles in dure geheugentiers te duwen.

Hoe dat er in de praktijk echt uitziet, is een systeem dat veel actiever op NAND leunt dan vroeger, niet alleen als plek waar data wordt opgeslagen, maar als onderdeel van het werkende datapad dat compute-resources op een meer continue manier voedt.

In grootschalige inference-omgevingen bijvoorbeeld overschrijden modellen en contextdata vaak wat realistisch in DRAM past. In plaats van alles geforceerd in geheugen te stoppen, vertrouwt het systeem op high-throughput toegang tot NAND, waardoor data snel genoeg kan binnenstromen dat het zich meer gedraagt als een uitbreiding van geheugen dan als traditionele opslag.

In trainingsomgevingen, waar datasets voortdurend opnieuw worden bekeken en parallel worden verwerkt, verschuift het doel naar het onderhouden van een gestage stroom in plaats van het afhandelen van losse pieken. High Bandwidth Flash ondersteunt dat door meerdere datapaden tegelijk actief te houden, waardoor de kans kleiner wordt dat één enkel verzoek een bottleneck wordt.

Zelfs in gedistribueerde NVMe-fabric-systemen blijft het idee hetzelfde. Data is verspreid over veel apparaten en nodes, maar wordt op een gecoördineerde manier benaderd waarbij throughput en beschikbaarheid belangrijker zijn dan eenvoudige opslagcapaciteit. NAND doet nog steeds dezelfde fundamentele taak, maar de manier waarop het systeem ermee omgaat is veel dynamischer dan vroeger.

Het eindresultaat is dat NAND stopt met aanvoelen als een verre laag onderaan de stack en meer begint te voelen als onderdeel van het actieve systeem, ook al bereikt het nooit helemaal de prestatie-eigenschappen van geheugen.

Waarom deze richting ertoe doet

Als je een stap terugdoet en kijkt naar wat er in al deze drie artikelen gebeurt, begint er een patroon zichtbaar te worden.

HBM brengt geheugen dichter bij compute. SCM verkleint de kloof tussen geheugen en opslag. High Bandwidth Flash schuift opslag dichter naar geheugen toe.

Alles convergeert naar hetzelfde doel: verkleinen hoe ver data moet reizen, en hoe lang het systeem erop moet wachten.

Terug naar het grotere geheel

NAND verdwijnt niet.

Als er al iets gebeurt, is het dat NAND juist belangrijker wordt, omdat de totale hoeveelheid data die deze systemen nodig hebben blijft groeien.

Wat verandert, is hoe NAND wordt gebruikt.

Het is niet langer alleen een passieve laag onderaan de stack. Het wordt omhooggetrokken, strakker geïntegreerd en gevraagd zich te gedragen op manieren die steeds meer op geheugen lijken, ook al wordt het dat nooit helemaal.

Die verschuiving is precies waar we in het oorspronkelijke stuk op wezen: de industrie heeft NAND niet vervangen, maar eromheen gebouwd.

Wat hierna komt

Vanaf hier blijft de stack zich in beide richtingen ontwikkelen.

Bovenin wordt geheugen sneller en specialistischer. Onderin wordt opslag intelligenter en meer geïntegreerd. En ergens daartussen wordt de grens tussen die twee steeds moeilijker te trekken.

In het volgende stuk kijken we naar hoe AI-systemen werkdata in real time afhandelen, en waarom concepten als context en KV-cache beginnen te beïnvloeden hoe geheugen en opslag samen worden ontworpen.

Redactionele noot

Het perspectief, de richting en de technische inkadering van dit artikel zijn door de auteur bepaald, gebaseerd op de specifieke thema’s die in het stuk worden verkend en de bredere discussie over hoe NAND binnen AI-infrastructuur dichter naar de geheugenlaag wordt geschoven.

AI is gebruikt als schrijfassistent om te helpen met ritme, zinsverloop en structurele organisatie, maar de onderwerpkeuze, vergelijkingen en uiteindelijke redactionele intentie zijn door de auteur bepaald.

De begeleidende afbeelding is ook met AI gemaakt, niet als generieke stockvisual, maar als doelgerichte illustratie om artikelspecifieke concepten weer te geven die lastig met conventionele beelden te communiceren zijn – in het bijzonder het idee dat NAND-flash zich meer gedraagt als een actieve, geheugen-aangrenzende laag binnen een moderne data-architectuur.

Alle inhoud is door de auteur beoordeeld, verfijnd en goedgekeurd vóór publicatie.

Lees verder

USB-softwaredongles zijn niet dood – ze veranderen gewoon

“De cloud” heeft hardwaredongles niet vervangen – het heeft alleen veranderd waar USB-softwarebeveiligingsdongles thuishoren

040926a nexcopy software security dongle nsd

Nu cloudlicenties overal zijn, is het makkelijk om aan te nemen dat hardwaredongles aan het verdwijnen zijn. Dat is het gangbare verhaal. Maar in de praktijk zijn ze helemaal niet verdwenen – ze zijn terechtgekomen in rollen waar de cloud simpelweg niet zo goed werkt.

Kijk maar naar de sectoren die vandaag nog steeds op dongles vertrouwen. Ingenieursbureaus die CAD-systemen draaien binnen gecontroleerde netwerken. Medische labs waar machines bewust van het internet geïsoleerd zijn. Industriële omgevingen waar uptime belangrijker is dan connectiviteit. Zelfs overheids- en defensiesystemen waar externe verbindingen niet alleen worden ontmoedigd – ze zijn verboden. In dat soort omgevingen is hardwarematige licentiëring geen verouderde keuze, maar gewoon een vereiste.

Bedrijven als Thales (Sentinel) en Wibu-Systems (CodeMeter) hebben complete ecosystemen rond dat model opgebouwd, en daar is een goede reden voor. Hun oplossingen zijn bewezen, diep geïntegreerd en vertrouwd in sectoren waar betrouwbaarheid en controle zwaarder wegen dan gemak.

Die systemen zijn solide, maar nieuwere benaderingen zoals die van Nexcopy beginnen opnieuw na te denken over hoe de dongle zelf zich zou moeten gedragen.

Cloudlicenties werken uitzonderlijk goed – totdat dat niet meer zo is. Ze zijn afhankelijk van connectiviteit, serverbeschikbaarheid, authenticatiediensten en beleidsrechten. Zodra een van die onderdelen wegvalt, valt de toegang ook weg.

Zie cloudlicenties als het streamen van een film. Het is handig, altijd actueel en makkelijk toegankelijk – totdat de verbinding wegvalt, de licentie verloopt of de toegang wordt beperkt. Een hardwaredongle is meer alsof je de Blu-ray bezit. Misschien minder flitsend, maar het werkt elke keer dat je het nodig hebt, ongeacht de netwerkcondities.

De realiteit is simpel: de cloud heeft dongles niet geëlimineerd. Het heeft ze alleen doorgeschoven naar de omgevingen waar fysieke controle nog steeds het betere antwoord is.

Het probleem: traditionele dongles zijn nauwelijks geëvolueerd

Hoewel dongles nog steeds relevant zijn, is de manier waarop ze worden geïmplementeerd in de loop der jaren niet noemenswaardig veranderd. Traditionele oplossingen vertrouwen op speciale hardwarechips die reageren op authenticatieverzoeken vanuit software. Dat model werkt, maar het brengt ook frictie met zich mee.

De meeste implementaties vereisen SDK-integratie, installatie van drivers en hooks op applicatieniveau om de sleutel te valideren. Dat zorgt voor afhankelijkheid van het ecosysteem van de leverancier en maakt zowel ontwikkeling als uitrol complexer. In veel gevallen wordt de dongle zelf een apparaat met maar één functie – het bestaat alleen om software vrij te schakelen, en verder niets.

Precies daar begint de kloof zichtbaar te worden. De omgevingen die nog steeds dongles nodig hebben, zijn geëvolueerd, maar de dongles zelf grotendeels niet.

Een andere benadering van Nexcopy

Hier komt Nexcopy in beeld met een ander model. In plaats van alles op te bouwen rond een speciale authenticatiechip, benadert de Nexcopy Software Dongle (NSD) het probleem op apparaatsniveau – waarbij de USB niet alleen als sleutel wordt behandeld, maar ook als een gecontroleerde opslagomgeving.

Dat onderscheid klinkt subtiel, maar het verandert wel degelijk hoe het apparaat wordt gebruikt.

In plaats van alleen als een challenge-response-token te werken, kan het apparaat functioneren als zowel opslagmedium als beschermingsmechanisme. Dat sluit veel beter aan op hoe USB-apparaten in echte workflows al worden gebruikt – content distribueren, software leveren en tegelijkertijd de toegang beheersen.

Belangrijkste verschillen in aanpak

Dubbele functie: opslag en bescherming
Traditionele dongles zijn apparaten met één doel. Het model van Nexcopy combineert opslag met handhaving, waardoor hetzelfde apparaat content kan bevatten én kan bepalen hoe die content wordt benaderd.

Controle op apparaatsniveau
In plaats van volledig te vertrouwen op software-integratie, kan handhaving op USB-niveau worden toegepast – inclusief alleen-lezen-configuraties, partitiebeheer en gebruiksbeperkingen. Daarmee verschuift de last weg van diepe applicatie-hooks.

Schrijfbeveiliging als fundament
Nexcopy bouwt voort op wat het al jaren doet met USB-configuratie op controllerniveau – met name schrijfbeveiliging en veilige partitionering. Als je ooit hebt gekeken naar USB alleen-lezen versus versleuteling, dan weet je al dat controle over hoe data zich gedraagt soms net zo belangrijk kan zijn als het versleutelen ervan.

Fysieke maatwerkopties en flexibele uitrol
De meeste traditionele leveranciers bieden standaard hardwareontwerpen aan. Nexcopy leunt juist op maatwerk – meerdere behuizingsstijlen, kleuren en brandingopties – en dat wordt relevant voor organisaties die fysieke media op grotere schaal distribueren.

Vereenvoudigde uitrolscenario’s
Omdat het apparaat zelf meer van de handhavingslogica draagt, kunnen sommige toepassingen de noodzaak van diepe integratie verminderen, waardoor uitrol in gecontroleerde omgevingen sneller verloopt.

Waar elk model past

Het is belangrijk om duidelijk te zijn – dit gaat er niet om dat de ene oplossing de andere vervangt. De traditionele spelers domineren nog steeds in omgevingen die diepe licentie-ecosystemen, floating license servers en complex entitlement management vereisen. Dat is waar bedrijven als Thales en Wibu sterk blijven.

De benadering van Nexcopy past bij een andere reeks problemen.

Contentdistributie. Gecontroleerde media. Offline validatie. Eenvoudige handhaving zonder zware infrastructuur. Gebrandede uitrol waarbij het fysieke apparaat zelf een rol speelt in levering en controle.

Dat zijn geen randgevallen – het is gewoon een andere categorie behoefte.

REVIEW:  USB software security dongle options

Een verschuiving in hoe handhaving wordt geleverd

Decennialang werden softwaredongles gedefinieerd door ingebouwde chips en authenticatie op applicatieniveau. Wat Nexcopy hier doet, wijst op een verschuiving – handhaving verplaatsen van software-integratie naar het gedrag van het apparaat zelf.

Het gaat minder om de vraag: “Is deze sleutel geldig?” en meer om het vanaf het begin controleren van wat het apparaat wel en niet kan doen.

Die verschuiving vervangt het oude model niet, maar breidt de categorie wel uit op een manier die beter aansluit bij hoe USB-apparaten vandaag de dag daadwerkelijk worden gebruikt.

En daarom is deze introductie de moeite waard om in de gaten te houden – niet omdat dongles nieuw zijn, maar omdat de benadering erachter eindelijk echt aan het veranderen kan zijn.

Samenvattende tabel voor USB-softwarebeveiligingsdongles

Kenmerk Traditionele dongles
(Sentinel/CodeMeter)
Nexcopy NSD-aanpak
Primair mechanisme Speciale authenticatiechip Opslagcontrole op apparaatsniveau
Integratie Vereist SDK of diepe software-hooks Handhaving op hardwareniveau
Connectiviteit Ondersteunt vaak floating of servergebaseerde licenties Geoptimaliseerd voor offline en direct gebruik
Fysiek gebruik Sleutel met één functie Dubbele functie: opslag + beveiliging

EEAT-opmerking: Dit artikel is gemaakt als een onafhankelijke redactionele analyse naar aanleiding van een recente productaankondiging van Nexcopy, zoals verspreid via EIN Presswire. Het is geen betaalde plaatsing en geen gesponsorde content. Het perspectief is gebaseerd op langdurige observatie van USB-gebaseerde beveiliging, duplicatiesystemen en workflows met gecontroleerde media. De oorspronkelijke aankondiging hielp het onderwerp te kaderen, maar alle analyse en vergelijkingen zijn redactioneel van aard.

Lees verder

Mara Vale – The Model That Drifted (Cyberpunk Noir)

040626a mara vale the model that drifted cyberpunk noir

In een systeem dat ontworpen was om alles te voorspellen, werd de kleinste verandering ineens het enige dat er echt toe deed.

Het model dat begon af te drijven

Ze zeiden dat het systeem niet langer fout kon zitten, niet na alles wat erin was gestopt – de data, de rekenkracht, de eindeloze correcties boven op andere correcties, totdat de machine de wereld niet alleen meer leerde kennen, maar haar ook begon te anticiperen op een manier die mensen ongeveer een week lang ongemakkelijk maakte, en ze daarna afhankelijk maakte.

Markten stabiliseerden nog voordat ze bewogen. Het weer liep gelijk met de projecties. Gedrag begon het model te volgen in plaats van de werkelijkheid. Na verloop van tijd vroeg niemand nog wat er zou gebeuren – ze vroegen wat het systeem zei dat er zou gebeuren, en dat bleek dicht genoeg in de buurt te liggen dat het verschil er niet meer toe deed.

Zij noemden het convergentie.

Ik noemde het een lijn.

Ik had nergens in de buurt mogen komen, maar systemen als dit falen niet netjes en ze falen ook niet waar je het verwacht. Ze verschuiven eerst, net genoeg zodat de mensen die er het dichtst op zitten het kunnen wegredeneren.

Lees verder

Wat is High Bandwidth Memory (HBM) en waarom AI ervan afhankelijk is

wat is high bandwidth memory hbm en waarom ai ervan afhankelijk is

AI-systemen vertragen meestal niet door beperkingen in rekenkracht, maar omdat het systeem de data niet snel genoeg kan verplaatsen om de processor continu van informatie te voorzien.

Met andere woorden: de bottleneck zit niet in het verwerken van data, maar in het leveren van die data op de snelheid die moderne AI-workloads vereisen.

Daar komt High Bandwidth Memory (HBM) in beeld als een belangrijk onderdeel van de architectuur.

Voor een breder beeld van hoe geheugen zich ontwikkelt voorbij flash en waarom AI-systemen tegenwoordig afhankelijk zijn van meerdere lagen, zie onze hoofd­analyse: NAND verdwijnt niet, maar AI-servers zijn tegenwoordig afhankelijk van meer dan alleen flash.

Lees verder

Waarom je elke “beste USB-stick” lijst eigenlijk moet negeren

USB-sticks opgesteld in een duplicator, waarbij ze er hetzelfde uitzien terwijl hun controllerfuncties en gedrag sterk verschillen

Elk jaar opnieuw gebeurt het weer.

Dezelfde soort artikelen duiken op. “De beste USB-sticks van 2026.” “Top 10 snelste USB-drives die je kunt kopen.” “Welke USB-stick moet je nú hebben?”

En eerlijk is eerlijk — ze lijken best nuttig. Een paar bekende merken, wat benchmarkgrafieken, misschien nog iets over bouwkwaliteit… en dan een eindlijst die net overtuigend genoeg voelt om op te klikken.

Maar als je er even rustig naar kijkt, zie je het probleem al snel.

Die lijsten proberen iets op te lossen wat eigenlijk geen groot probleem meer is.

Lees verder

Flashgeheugen bewaart alles – behalve zijn eigen geschiedenis

Flashgeheugen bewaart de data van de hele wereld – maar niet zijn eigen verhaal

flashgeheugen bewaart alles behalve zijn eigen geschiedenis - een tijdlijn van flashgeheugen

Als je op zoek gaat naar een museum dat volledig aan flashgeheugen is gewijd, kom je verrassend weinig tegen. Er is er één – weggestopt in een opslagfaciliteit in China, deels showroom, deels historische tentoonstelling – maar het is niet iets wat het publiek bezoekt, en het probeert ook geen permanent archief te zijn. Het is eerder een zorgvuldig samengestelde herinnering dat deze technologie überhaupt een verleden heeft.

Dat is een vreemde positie voor iets wat stilletjes het grootste deel van de data van de wereld bewaart.

Flashgeheugen zit tegenwoordig onder alles – USB-sticks, SD-kaarten, SSD’s, embedded systemen – en toch is er bijna geen fysiek spoor van hoe het zich heeft ontwikkeld. Geen centraal archief. Geen breed erkende collectie. Geen plek waar je door de ontwikkeling kunt lopen van vroege verwisselbare kaartjes tot de controller-gestuurde opslagsystemen waar we vandaag op vertrouwen. Voor een technologie die zó belangrijk is, valt die afwezigheid moeilijk te negeren zodra je er eenmaal naar gaat zoeken. Als je eerst een stap terug wilt doen en de basis wilt begrijpen van hoe data over dit soort apparaten wordt opgeslagen, is het de moeite waard om te kijken naar hoe we bestanden opslaan op een USB-stick of USB-harde schijf voordat je dieper in de architectuur duikt.

En hoe langer je erover nadenkt, hoe ongemakkelijker het wordt. Want dit is niet alleen een gat in de manier waarop we bewaren – het is ook een structureel probleem van de technologie zelf. Flashgeheugen is erg goed in het opslaan van data, maar het blijkt niet erg goed te zijn in het bewaren van zijn eigen geschiedenis.

In het midden van dit alles staat NAND-flash – de kerntechnologie achter bijna elk modern opslagapparaat. Het is niet zomaar een onderdeel van het gesprek op dit moment, het is het gesprek. Beperkingen in de toelevering, schaalbaarheidsgrenzen, complexere controllers, vraag vanuit enterprise-omgevingen – NAND duikt op in sectorrapporten, kwartaalcijfers en infrastructuurplannen op een manier die tien jaar geleden nauwelijks bestond. En als je wilt zien hoe dat gesprek nu verdergaat, helpt het om ook te kijken naar hoe MLC en TLC NAND vandaag anders worden beoordeeld.

En die druk neemt niet af. Integendeel, die versnelt juist.

De opkomst van kunstmatige intelligentie – en vooral de verschuiving van de huidige grootschalige modellen naar wat velen Artificial General Intelligence (AGI) noemen – drijft een compleet nieuwe categorie van datavraag aan. AGI verwijst, simpel gezegd, naar systemen die op menselijk niveau kunnen redeneren, leren en zich aanpassen over een breed scala aan taken, in plaats van beperkt te blijven tot smalle, gespecialiseerde functies. Of die tijdlijn nu snel werkelijkheid wordt of niet, de richting is duidelijk: meer modellen, meer data, meer checkpoints, meer opslaglagen die steeds complexere systemen voeden. Dat bredere geheugenvraagstuk zie je ook terug in de rol van HBM binnen moderne AI-systemen.

Flashgeheugen zit precies in het midden van die pijplijn.

Trainingsdatasets, modelgewichten, inference-caching, edge deployment – dit zijn geen theoretische workloads. Ze gebeuren nu al, en ze hangen allemaal af van snelle, dichte en betrouwbare opslag. NAND is niet alleen fundamenteel geworden voor consumentenapparaten, maar ook voor de infrastructuur die de volgende fase van computing vormgeeft.

En dat maakt de situatie alleen maar vreemder.

Precies op het moment dat flashgeheugen een van de meest kritieke technologieën ter wereld wordt, blijft het ook een van de minst goed bewaarde.

Dus stel dat er echt een volwaardig flashgeheugenmuseum zou bestaan – iets groters dan een kleine bedrijfsexpositie – wat zou je daar dan eigenlijk zien?

Een wandeling door een flashgeheugenmuseum

Als er echt een flashgeheugenmuseum zou bestaan, zou het niet aanvoelen als een tijdlijn aan de muur met data en productlanceringen. Het zou eerder voelen als een wandeling door de lagen van hoe opslag werkelijk werkt, waarbij elke ruimte groter of kleiner wordt afhankelijk van hoeveel die laag daadwerkelijk bijdraagt aan het uiteindelijke apparaat.

Niet alle onderdelen van flashopslag dragen even zwaar. Sommige zijn zichtbaar maar eenvoudig. Andere zijn volledig verborgen en dragen het grootste deel van de kosten, het risico en de technische inspanning. Als je dat fysiek zou uittekenen, zouden de verhoudingen een heel ander verhaal vertellen dan de meeste mensen verwachten.

De plattegrond van het museum die het echte verhaal vertelt

flashgeheugen bewaart alles behalve zijn eigen geschiedenis

Ruimte 1 – Voor flash (kleine ruimte – ~5%)

Je zou beginnen in een kleinere ruimte, bijna makkelijk over het hoofd te zien als je niet goed oplet.

Floppydisks, optische media, misschien een paar vroege harde schijven. Fysieke opslag die je kunt oppakken, bekijken en begrijpen zonder veel uitleg. Data had een plek waar je letterlijk naar kon wijzen. Als iets faalde, faalde het meestal op een manier die je kon zien of horen.

Daar zit iets geruststellends in.

Deze ruimte is belangrijk omdat ze de basis neerzet. Ze herinnert je eraan dat opslag ooit tastbaar was en in veel gevallen verrassend duurzaam, zolang je er goed mee omging. Maar als het gaat om hoe moderne flashapparaten worden gebouwd en waar de kosten zitten, neemt dit deel van het verhaal vandaag nog maar weinig ruimte in. Het is context, geen bijdrage.

Ruimte 2 – Het versnipperde begin (middelgrote ruimte – ~10-15%)

De volgende ruimte wordt wat voller, en ook wat minder ordelijk.

Je begint SmartMedia-kaarten, Memory Stick, xD-Picture Card en CompactFlash te zien – formaten die bekend aanvoelen als je lang genoeg meeloopt, maar ook een beetje los van elkaar staan. Verschillende vormen, verschillende connectors, verschillende aannames over hoe het geheugen zou worden gebruikt.

Op het eerste gezicht lijkt het op een simpele formaatstrijd, maar dat is niet echt wat er gebeurde. Onder die vormfactoren zaten echte beperkingen die samenhingen met controllercapaciteit, NAND-dichtheid en de manier waarop data betrouwbaar kon worden beheerd. Sommige formaten liepen vroeg tegen schaalbaarheidsmuren aan. Andere waren te strak gecontroleerd om brede adoptie te krijgen. Een paar werden gewoon te duur om te rechtvaardigen zodra betere opties verschenen.

Ze verdwenen niet omdat mensen ze niet meer leuk vonden. Ze verdwenen omdat ze het tempo niet konden bijhouden.

Deze ruimte neemt meer plaats in omdat ze een periode vertegenwoordigt waarin de industrie nog aan het uitzoeken was hoe alles moest werken, en dat proces was niet goedkoop. Er zit veel techniek verborgen in de formaten die het niet hebben overleefd.

Ruimte 3 – De USB-explosie (grote ruimte – ~20-25%)

Daarna loop je een ruimte binnen die merkbaar open aanvoelt.

Dit is het moment waarop USB-sticks het overnemen en alles meer één geheel begint te worden. De vormen worden eenvoudiger, de interfaces standaardiseren, en het idee van draagbare opslag verandert van een nichetoepassing in iets wat bijna vanzelfsprekend wordt.

Wat interessant is, is dat hoewel alles aan de buitenkant eenvoudiger lijkt, de binnenkant hier juist ingewikkelder begint te worden. Controllers worden capabeler, NAND wordt dichter verpakt, en de productie schaalt op een manier waardoor flash een commodity wordt.

Dit is ook het moment waarop flash naar de achtergrond verdwijnt. Het is niet langer hét kenmerk – het is er gewoon, en doet zijn werk. Mensen stoppen met nadenken over hoe het werkt en gaan er gewoon van uit dat het er altijd zal zijn wanneer ze het nodig hebben.

Vanuit kostenoogpunt is deze ruimte fors, omdat ze de verschuiving naar massaproductie en wereldwijde adoptie weerspiegelt. Hier wordt flash onderdeel van alledaags computergebruik in plaats van iets wat je bewust moest gaan kopen.

Ruimte 4 – Het controller-tijdperk (grootste ruimte – ~30-40%)

Op een bepaald moment stap je de grootste ruimte binnen, en als je flashgeheugen daarvoor nog niet echt begreep, dan is dit het punt waarop dingen beginnen te landen.

Want hier gebeurt het echte werk.

Je ziet in deze ruimte niet alleen chips – je ziet de logica erachter. De controller, de firmware, de mapping tussen wat het systeem denkt te schrijven en wat de NAND in werkelijkheid aankan. Het is het deel van het systeem dat de meeste mensen nooit zien, maar het is voortdurend bezig met vertalen, corrigeren en beslissingen nemen op de achtergrond.

Wat je moet begrijpen, is dat ruwe NAND op zichzelf niet bijzonder betrouwbaar is. Cellen slijten, bits driften, blokken gaan kapot. Zonder beheer zou het niet lang bruikbaar blijven. De controller is wat dat instabiele medium omzet in iets dat zich gedraagt als stabiele opslag.

Die bepaalt waar data terechtkomt, hoe lang die daar blijft, wanneer die moet worden verplaatst, en hoe fouten onderweg worden afgehandeld. Het is ook de plek waar twee apparaten die op papier identiek lijken, zich in de praktijk heel verschillend kunnen gedragen.

Deze ruimte is groot omdat de kosten groot zijn – niet alleen in componenten, maar ook in ontwikkeling, validatie en betrouwbaarheid op lange termijn. Veel van wat het ene opslagproduct beter maakt dan het andere, leeft hier, ook al verschijnt het nooit op een specificatieblad.

Ruimte 5 – NAND op schaal (enorme ruimte – ~40-50%)

En dan kom je in de laatste ruimte, en die is allesbehalve subtiel.

Deze ruimte wordt gedomineerd door de fysieke realiteit van NAND zelf. Wafers, gestapelde lagen, steeds dichtere celstructuren die tot vlak tegen hun grenzen worden opgevoerd. Hier zit het grootste deel van de kosten, en dat zie je ook.

Wat in deze ruimte duidelijk wordt, is dat alles eromheen bestaat om te ondersteunen wat hier gebeurt. Naarmate NAND dichter wordt, wordt het ook kwetsbaarder. Foutpercentages lopen op. Dataretentie wordt lastiger. De foutmarge wordt kleiner.

Daardoor moet de controller harder werken. De firmware moet meer compenseren. Het hele systeem wordt een evenwichtsoefening tussen dichtheid, prestaties en betrouwbaarheid.

Dit is ook waar het huidige moment scherp in beeld komt. Enterprise-opslag, datacenters, AI-workloads – alles hangt ervan af dat NAND verder wordt opgerekt en zich toch voorspelbaar blijft gedragen.

En dat wordt moeilijker, niet makkelijker.

Wat die ruimtes je eigenlijk vertellen

Als je een stap terug doet en naar de volledige indeling kijkt, vertellen de verhoudingen een verhaal dat de meeste mensen niet verwachten.

De onderdelen waarmee je direct te maken hebt – de connector, de vormfactor, zelfs het merk – nemen relatief weinig ruimte in. Het grootste deel van het systeem leeft op plekken die je niet ziet, aangedreven door fysieke grenzen en de logica die nodig is om daar omheen te werken.

En dat is precies wat het idee van het bewaren van flashgeheugen zo ingewikkeld maakt.

Je kunt apparaten achter glas zetten. Je kunt formaten en tijdlijnen labelen. Maar de belangrijkste onderdelen – het gedrag van de controller, de beslissingen in de firmware, de manier waarop data door de tijd heen wordt beheerd – blijven in traditionele zin niet lang genoeg stilzitten om echt te bewaren.

Ze ontwikkelen zich, worden vervangen, en verdwijnen uiteindelijk samen met de hardware die ervan afhankelijk was.

En dat maakt het idee van een flashgeheugenmuseum, als je er goed over nadenkt, toch een beetje vreemd.

Want zelfs als je er één zou bouwen, zouden de belangrijkste onderdelen niet het makkelijkst zijn om te behouden.

Auteur & transparantie over de inhoud

Dit artikel begon met een eenvoudige observatie van de auteur: voor een technologie die bijna alle moderne data bewaart, heeft flashgeheugen nauwelijks een formeel archief of een openbaar verslag van zijn eigen ontwikkeling. Het concept, de richting en het technische perspectief komen voort uit jarenlange praktijkervaring met USB-opslagsystemen, gedrag op controllerniveau en de inzet van flashgeheugen in commerciële en industriële omgevingen.

De auteur is sinds 2004 actief in de wereld van USB en flashgeheugen, en heeft van dichtbij gezien hoe opslagapparaten zich hebben ontwikkeld – van vroege verwisselbare formaten tot moderne controller-gestuurde systemen. Terugkijkend is het niet onredelijk om te zeggen dat, als de sector had ingezien hoeveel er níet bewaard zou blijven, iemand jaren geleden al een serieus archief of museum had kunnen beginnen. In plaats daarvan is veel van die geschiedenis verspreid geraakt, vervangen of stilletjes verloren gegaan terwijl elke nieuwe generatie technologie verder schoof.

AI-tools zijn gebruikt bij het maken van dit artikel om te helpen met structuur, flow en algemene leesbaarheid. Alle kernideeën, technische inzichten en conclusies zijn echter door de auteur ontwikkeld en beoordeeld om nauwkeurigheid en relevantie te waarborgen.

De afbeeldingen in dit artikel zijn geen stockfoto’s. Het zijn visuele representaties die met behulp van AI-tools zijn gemaakt op basis van de scenario’s en concepten die in de inhoud worden beschreven. Deze beelden zijn bedoeld om ideeën te illustreren die lastig vast te leggen zijn met traditionele fotografie, vooral wanneer het gaat om interne componenten, historische formaten of abstract systeemgedrag.

Lees verder

Je kunt een USB-stick niet defragmenteren of TRIM gebruiken – Dit is waarom

why-defrag-and-trim-dont-apply-to-usb-flash-drives

Als je hier bent gekomen omdat je een USB-stick wilde defragmenteren of TRIM wilde gebruiken op een USB-flashdrive, dan is de reden dat je vastliep heel simpel: die tools zijn niet van toepassing op USB-flashdrives zoals dat wel het geval is bij harde schijven en SSD’s.

Je bent bij dit artikel uitgekomen omdat je probeert een USB-stick te defragmenteren of TRIM toe te passen op een USB-flashdrive, en waarschijnlijk heb je al iets frustrerends gemerkt – er is geen optie om een van beide te doen. Geen instelling, geen tool, niets dat werkt zoals bij een harde schijf of SSD. Dat is geen fout, en het is ook niet iets dat ergens verborgen zit in een menu. Je kunt een USB-flashdrive simpelweg niet defragmenteren of op een betrouwbare manier TRIM gebruiken, en zodra je begrijpt hoe deze apparaten werken, wordt de reden al snel behoorlijk duidelijk.

Lees verder

Storage Class Memory uitgelegd: de ontbrekende laag tussen DRAM en NAND

040426a storage class memory explained between dram and nand

Zodra je begint te kijken naar hoe AI-systemen daadwerkelijk data verplaatsen, merk je vrij snel dat het probleem niet alleen gaat over snellere processors of meer opslag, maar vooral over wat er tussen die lagen gebeurt en hoe vaak het systeem moet wachten.

In het vorige artikel over High Bandwidth Memory lag de nadruk op het zo dicht mogelijk bij de processor houden van data, zodat de GPU niet stil komt te staan. Dat is de bovenkant van de stack en dat is cruciaal, maar het lost maar een deel van het probleem op, omdat niet alles daar kan blijven.

Zodra de werkset groter wordt dan wat in die directe laag past, ga je weer data verplaatsen tussen DRAM en NAND, en daar begint het geheel wat onevenwichtig aan te voelen. DRAM is snel en responsief, maar duur en niet onbeperkt schaalbaar. NAND is veel praktischer qua capaciteit, maar zelfs goed flashgeheugen introduceert genoeg vertraging dat het merkbaar wordt wanneer het systeem continu onder belasting staat.

Die ruimte ertussen is waar Storage Class Memory zijn waarde begint te tonen. Niet als iets nieuws dat één van beide kanten wil vervangen, maar als een manier om de overgang soepeler te maken zodat het systeem niet voortdurend springt van heel snel naar merkbaar trager en weer terug.

Als je het bredere plaatje wilt begrijpen waarom deze lagen überhaupt ontstaan, dan sluit dit direct aan op het hoofdartikel hier: NAND verdwijnt niet, maar AI-servers zijn tegenwoordig afhankelijk van meer dan alleen flash.

Lees verder

NAND verdwijnt niet, maar AI-servers zijn tegenwoordig afhankelijk van meer dan alleen flash

NAND verdwijnt niet, maar AI-servers zijn nu afhankelijk van meer dan alleen flash

Al meer dan twee decennia kijkt GetUSB naar hoe data zich daadwerkelijk verplaatst, niet alleen hoe het wordt gepresenteerd in marketing. In die tijd hebben we opslag door meerdere cycli zien evolueren, van de afname van draaiende schijven tot de opkomst van flash, en meer recent naar systemen waarin opslag niet langer slechts een passieve component is, maar onderdeel van de infrastructuur zelf.

Wat er nu gebeurt met AI-infrastructuur voelt als opnieuw zo’n overgangsmoment, maar dit keer gedreven door een ander soort druk.

NAND-flash verdwijnt niet, en daar is eigenlijk geen discussie over. Het blijft de basis van moderne opslag en doet dat werk extreem goed. Tegelijkertijd is de vraag naar NAND snel gestegen, grotendeels door AI-workloads die enorme datasets vereisen en daar continu toegang toe nodig hebben. Die vraag begint nu tegen de grenzen van het aanbod aan te lopen op manieren die steeds moeilijker te negeren zijn, of dat nu zichtbaar wordt in prijsdruk, strakkere toewijzingen of simpelweg langere levertijden voor grote implementaties.

Wanneer dit soort onevenwicht zichtbaar wordt, blijft de industrie niet stilzitten en wachten tot alles weer normaliseert. Ze gaat op zoek naar andere manieren om het probleem op te lossen, en daar begint de verschuiving.

Lees verder

Zelfde chip. Zelfde geheugen. Dus waarom is de ene USB-stick zo beroerd?

SMT productielijn met dozen van USB-flashdrives op de fabrieksvloer in een elektronica-omgeving tijdens lopende productie

Bijna iedereen heeft dat moment wel eens gehad, ook al sta je er meestal niet echt bij stil. Je plugt een USB-stick in, begint wat bestanden te verplaatsen, en toch voelt er iets niet helemaal lekker. Hij is niet kapot, hij is niet dood, en technisch gezien doet hij gewoon zijn werk, maar het loopt net niet soepel. Misschien zakt de overdrachtssnelheid ineens zonder duidelijke reden in, misschien verbreekt hij een keer de verbinding en komt hij daarna weer terug, misschien wordt hij warmer dan je zou verwachten. En dan pak je een dag later een andere stick – zelfde capaciteit, ongeveer hetzelfde uiterlijk, misschien zelfs uit dezelfde productfamilie – en die doet het gewoon perfect. Soepele transfers, geen haperingen, geen gedoe. Hij werkt gewoon.

Het interessante is dat die twee sticks van binnen vaak veel meer op elkaar lijken dan je zou denken. In veel gevallen zijn ze gebouwd met exact dezelfde controllerfamilie en exact hetzelfde type NAND-flashgeheugen. Op papier zijn ze dus praktisch identiek. En toch gedragen ze zich in de praktijk als twee totaal verschillende producten.

Lees verder

Copyright ©

Copyright © 2006-2019 by
USB Powered Gadgets and more…
All rights reserved.

GetUSB offers advertising opportunities on our website which has at least 1,000 unique visits per day.

For more information,

Visit Our Advertising Page