DDRAM-Speicher-Tutorial beinhaltet:
DRAM-Speichertechnologie Wie funktioniert DRAM DRAM-Typen
Zurück zu: Speichertypen & Technologien
Dynamischer Arbeitsspeicher oder DRAM ist eine Form des Direktzugriffsspeichers, RAM, der in vielen Prozessorsystemen als Arbeitsspeicher verwendet wird.
DRAM ist in der digitalen Elektronik weit verbreitet, wo preiswerter und hochkapazitiver Speicher benötigt wird.
Dynamischer Arbeitsspeicher, DRAM, wird dort eingesetzt, wo eine sehr hohe Speicherdichte benötigt wird, ist aber im Gegensatz dazu recht stromhungrig, so dass dies bei seinem Einsatz berücksichtigt werden muss.
Was ist DRAM-Technologie?
Wie der Name DRAM (Dynamic Random Access Memory) schon andeutet, handelt es sich bei dieser Form der Speichertechnologie um eine Art von Direktzugriffsspeicher. Sie speichert jedes Datenbit auf einem kleinen Kondensator innerhalb der Speicherzelle. Der Kondensator kann entweder geladen oder entladen werden, was die beiden Zustände „1“ oder „0“ für die Zelle ergibt.
Da die Ladung im Kondensator entweicht, muss jede Speicherzelle periodisch aufgefrischt werden. Dieser Auffrischungsbedarf führt zu dem Begriff dynamisch – statische Speicher müssen nicht aufgefrischt werden.
Der Vorteil eines DRAMs ist die Einfachheit der Zelle – sie benötigt nur einen einzigen Transistor im Vergleich zu etwa sechs in einer typischen statischen RAM-, SRAM-Speicherzelle. Aufgrund der Einfachheit sind die Kosten für DRAM viel niedriger als für SRAM, und sie können eine viel höhere Speicherdichte bieten. Allerdings hat das DRAM auch Nachteile, weshalb die meisten Computer sowohl die DRAM- als auch die SRAM-Technologie verwenden, allerdings in unterschiedlichen Bereichen.
Da das DRAM Strom benötigt, um seine Daten zu halten, ist es ein sogenannter flüchtiger Speicher. Speichertechnologien wie Flash sind nicht-flüchtig und behalten ihre Daten auch dann, wenn die Stromversorgung unterbrochen wird.
Geschichte der DRAM-Technologie
Als eine Form der Speichertechnologie entstand der dynamische Arbeitsspeicher aus der Entwicklung der ersten Mikroprozessoren und der damit einhergehenden Entwicklung integrierter Schaltkreise.
Mitte bis Ende der 1960er Jahre begannen integrierte Schaltkreise in einigen fortschrittlichen Elektronikprodukten aufzutauchen – zuvor wurde für Computerspeicher eine Form von Magnetspeicher verwendet. Diese Speicher verwendeten einen einzelnen kleinen Ferrit-Toroid für jedes Speicherelement. Natürlich war dieser „Kern“-Speicher sehr teuer, und integrierte Versionen waren auf lange Sicht attraktiver.
Die Idee für die DRAM-Technologie tauchte relativ früh in der Zeitlinie der integrierten Halbleiterschaltungen auf. Eine frühe Form fand sich in einem Toshiba-Rechner, der 1966 aus diskreten Bauteilen hergestellt wurde, und zwei Jahre später wurde die Idee des DRAMs, wie wir es heute kennen, patentiert.
Die nächste Entwicklungsstufe der DRAM-Technologie kam 1969, als Honeywell, das in großem Stil in den Computermarkt eingestiegen war, Intel bat, einen DRAM unter Verwendung einer von ihnen entwickelten Idee mit drei Transistorzellen herzustellen.
Der resultierende DRAM-IC wurde als Intel 1102 bezeichnet und erschien Anfang 1970. Der Baustein hatte jedoch eine Reihe von Problemen, was Intel dazu veranlasste, eine neue DRAM-Technologie zu entwickeln, die zuverlässiger arbeitete. Der daraus resultierende neue Baustein erschien Ende 1970 und wurde Intel 1103 genannt.
Die DRAM-Technologie machte einen weiteren Schritt nach vorn, als MOSTEK 1973 den MK4096 produzierte. Wie die Teilenummer andeutet, hatte dieser Baustein eine Kapazität von 4 k. Sein Hauptvorteil war jedoch, dass er einen Ansatz mit gemultiplexten Zeilen- und Spaltenadresszeilen enthielt. Dieser neue Ansatz ermöglichte es diesen Speichern, in Gehäuse mit weniger Pins zu passen. Der daraus resultierende Kostenvorteil wuchs im Vergleich zu den vorherigen Ansätzen mit jeder Erhöhung der Speichergröße. Dadurch konnte die MOSTEK-DRAM-Technologie mehr als 75 % des Weltmarktanteils gewinnen.
Schließlich verlor MOSTEK den Anschluss an die japanischen Hersteller der DRAM-Technologie, da diese in der Lage waren, qualitativ hochwertigere Bausteine zu niedrigeren Kosten herzustellen.
DRAM-Vor- und Nachteile
Wie bei jeder Technologie gibt es verschiedene Vor- und Nachteile bei ihrer Verwendung. Das Abwägen der Vor- und Nachteile der Verwendung von DRAM gegenüber einer anderen Technologieform stellt sicher, dass das optimale Format gewählt wird.
Vorteile von DRAM
- Sehr dicht
- Geringe Kosten pro Bit
- Einfache Speicherzellenstruktur
Nachteile von DRAM
- Aufwändiger Herstellungsprozess
- Daten müssen Auffrischung
- Komplexere externe Schaltung erforderlich (periodisches Lesen und Auffrischen)
- Volatiler Speicher
- Relativ langsame Betriebsgeschwindigkeit
DRAM-Speicher ist einer der Eckpfeiler der Speichertechnologie, Er wird in vielen Formen von prozessorbasierten Geräten eingesetzt. DRAM ermöglicht den Aufbau eines relativ schnellen und dichten Speichers, der für den Arbeitsspeicher in diesen prozessor- und computerbasierten Geräten geeignet ist.
Die DRAM-Technologie entwickelt sich (zusammen mit anderen Speichertechnologien) weiter, um die immer anspruchsvolleren Anforderungen neuer Geräte zu erfüllen.
Weitere elektronische Bauteile:
Widerstände Kondensatoren Induktivitäten Quarzkristalle Dioden Transistor Fototransistor FET Speichertypen Thyristor Steckverbinder HF-Steckverbinder Ventile / Röhren Batterien Schalter Relais
Zurück zum Menü Bauteile . . .