Eine Lanze für moderne Computer brechen

Retrocomputing ist in. Wer, wie ich, seine ersten Erfahrungen mit Computern in den 80er Jahren gemacht hat, ist für dieses Thema besonders empfänglich. Dabei ist der Blick zurück häufig ziemlich verklärt und die alte Zeit wird als die bessere angesehen. Dabei wird übersehen, dass früher nicht alles eitel Sonnenschein war.
Der folgende Artikel bezieht sich allein auf meine Erfahrungen, welche sehr stark von Heimcomputern und PCs mit MS-DOS geprägt wurden und weniger von Konsolen. Ich habe exemplarisch das Jahr 1992 als Grundlage des Artikels genommen, wobei ich auch spätere Jahre (bis ca. 1997) anspreche um bestimmte Sachverhalte zu verdeutlichen.

Kurze Biographie meinerseits:
Jahrgang 1977. Der erste C64 irgendwann im Jahr 1988. Im Oktober 1990 folgte ein Atari ST mit 1 MB RAM, im Mai 1992 dann ein PC (AMD 386SX25 CPU, 1 MB RAM und 40 MB HDD).

Warum ausgerechnet 1992? Weil ich in diesem Jahr meinen ersten PC gekauft habe und zusätzlich weil zu diesem Zeitpunkt der Computermarkt noch sehr viel heterogener war als heute. Neben den PCs waren noch sehr häufig Heimcomputer (Amiga, Atari ST oder C64) im Einsatz und viele Spiele und Programme wurden noch für mehrere Plattformen entwickelt. Zudem war der Leistungsunterschied zwischen den PCs und den Heimcomputern noch nicht so groß, obwohl Letztere mit der breiten Verfügbarkeit von 386er CPUs und VGA-Grafikkarten ins Hintertreffen gerieten.

Hier mal einige Punkte, welche meine Sicht auf die damalige Hardware und Software aufzeigen soll:

Die Hardware damals war sehr teuer

Mein erster PC (Den ich mir von meinem Konfirmationsgeld gekauft hatte) kostete damals im Mai 1992 2000 DM. Die Ausstattung (siehe obigen Kasten) war eher unterdurchschnittlich und von High-End weit entfernt. Der PC hatte zwei Diskettenlaufwerke und keine (!) Soundkarte. Diese habe ich mir im Oktober 1992 zusammen einem CD-ROM-Laufwerk angeschafft. Rechnet man den Kaufpreis von 2000 DM auf die heutige Kaufkraft um, kommt man auf ca. 1.650€ (Errechnet mit DM-Euro-Rechner). Für diesen Betrag bekommt man heute einen ziemlich guten PC inklusive eines guten Monitors.

Damals gab es eine Faustregel:

Für einen brauchbaren PC mit Monitor musste man mindestens 2000 DM ausgeben, für weniger Geld gab es nur veraltete Hardware, welche nicht mehr zeitgemäß war und moderne Programme mehr schlecht als recht ausführen konnte. Wer mehr fühlbare Leistung benötigte oder einen schnellen Mac, Amiga oder Atari wollte, musste deutlich mehr als 4000 DM ausgeben. High-End-PCs, Macs oder Unix-Workstations kosteten über 10000 DM.
Vergleicht man die Situation mit heute, stellt sich die Gegenwart quasi als Paradies dar:
Einsteiger-PCs bekommt man für unter 300 €, Einsteiger-Spiele-PCs für 500 € (jeweils ohne Monitor). Ab 1000 € bekommt man PCs, die für alle Anwendungen uneingeschränkt tauglich sind, ein High-End-PC mit 16 Kernen ist ab 2000 € verfügbar. Dabei reicht selbst die Rechenleistung eines 300 €-PCs locker aus um alle alltäglichen Aufgaben problemlos zu erledigen.

Der Rechner war immer zu schlecht ausgestattet

Die CPU meines ersten PCs hatte eine 386SX-CPU, was heißt, dass die CPU intern mit 32bit-breiten Registern arbeitete, aber nur einen 16 Bit breiten externen Datenbus und einen 24 Bit breiten Adressbus hatte (Der 386DX war durchgängig 32bit). Dadurch war er deutlich langsamer als ein 386DX mit gleicher Taktfrequenz (ca. 25%) und der maximale Speicherausbau war auf 16 MB beschränkt. Er war im Grunde nicht schneller als eine gleich getaktete 286-CPU, hatte aber den Vorteil, dass er ein echter 32bit-Prozessor war und dadurch echte 32bit-Betriebssysteme ausführen konnte. Schon direkt nach dem Kauf des PCs konnte ich viele Spiele nur mit Einschränkung spielen (Wing Commander 2 lief z.B. sehr zäh), weshalb das Mainboard relativ schnell gegen eines mit einem 386DX40 ersetzt wurde.
Ein weiteres Problem war, dass der verfügbare Speicher (Egal ob RAM oder HDD) immer zu klein war. Windows benötigte mindestens 1 MB RAM, besser waren 2 MB. Bei OS/2 waren schon mindestens 4 MB notwendig, wobei man damit nicht viel mit dem System anfangen konnte, da es permanent am Swappen war. Besser waren 8 MB oder sogar 16 MB und das zu Zeiten wo in den PCs gerade 4 MB zum Standard wurden. Es dauerte noch Jahre bis PCs den Speicherhunger moderner Betriebssysteme befriedigen konnten und das System sich mangels RAM nicht mehr selbst ausgebremst hat.
PC-Spiele wie Comanche und DOOM benötigten 1993 mindestens 4 MB RAM, um überhaupt zu starten und verlangten nach mindestens einem 486SX25 um auf spielbare Frameraten zu kommen. Oben genannter 386DX40, den ich zu diesem Zeitpunkt besaß, war für DOOM schon viel zu langsam und ich hatte nur die Wahl zwischen „Guckschlitz“ oder „Riesenpixel“.

Noch schlimmer sah es bei der Festplatte aus:

Meine damalige 40 MB Platte war im Grunde immer voll. Ich habe mir damals Wing Commander 2 von einem Freund ausgeliehen und dieses benötigte mit „Speech Pack“ 36 MB. Neben der DOS-Installation war also kein Platz mehr für andere Dinge. Ich war also permanent am Installieren und Kopieren. Die verfügbaren Festplattenkapazitäten stiegen zwar rasant an und die Kosten fielen ebenso rasant, aber im gleichen Maß stieg auch die Größe der Programme an.

Schaut man sich heute die Situation an, leben wir im Luxus:

4 GB RAM sind selbst in Billigrechnern verbaut, 8 GB Standard. Festplatten unter 1 TB Kapazität bekommt man fast nirgends mehr zu kaufen bzw. sind im Vergleich zu größeren Festplatten deutlich teuer. Die meisten Anwender kommen auch mit „kleinen“ 256 GB SSDs gut zurecht. Man muss heutzutage nur noch selten mit dem Plattenplatz haushalten. Mein beiden PCs (Desktop und Notebook) haben jeweils 16 GB RAM und eine 256 GB SSD und ich komme trotz meines Bioinformatikstudiums selten in die Situation, dass dieser Speicher nicht mehr ausreicht (Ein Beispiel dafür folgt in den nächsten Tagen).

Die Ergonomie der Bildschirme war grausam

Windows NT 4.0SP6 (2001), OpenStep 4.2 (1997), Slackware 1.1.2 mit FVWM (1994), Auflösung jeweils 1024×768 Bildpunkte

Mein damaliger PC wurde mit einem 14-Zoll Monitor ausgeliefert, der gerade mal eine Auflösung von 640×480 Bildpunkten bei 60 Hz schaffte. Die Bildqualität war mies und ich habe den Monitor auch nur ertragen, weil ich nichts Besseres kannte bzw. mir nichts besseres leisten konnte. Zum Spielen reichte der Monitor locker aus, da man bis Mitte der 90er eh meistens in der VGA-Auflösung mit 320×200 Bildpunkten gespielt hat. Bei solch einer geringen Auflösung spielte es keine große Rolle, wenn die Pixel etwas „matschig“ aussahen.
Ein Problem wurden die billigen PC-Monitore zu dem Zeitpunkt als Windows zum Standard wurde. Eine Auflösung von 640×480 Bildpunkten genügte für einfache Arbeiten, wer aber Windows wirklich benutzen wollte, musste mindestens eine Auflösung von 800×600 Bildpunkten benutzen und da wurde es bei den 2000 DM-PCs ziemlich übel. Mein 14-Zoll-Monitor konnte diese Auflösung z.B. nur mit 56 Hz darstellen, eine höhere Auflösung (1024×768) war nur mit 43 Hz im Interlaced-Modus möglich. Also nichts, was auch nur ansatzweise als ergonomisch zu bezeichnen wäre. Ein guter Monitor kostete damals mehr als 1000 DM, einen Betrag, den ich mir nicht leisten konnte.

Wichtig wurde die Auflösung des Monitors für mich, als ich damals Linux entdeckte:

Während man Windows 3.1 und später Windows 95 relativ problemlos mit einer Auflösung von 640×480 Bildpunkten betreiben und mit 800×600 Bildpunkten gut arbeiten konnte, war daran unter Linux mit einer grafischen Oberfläche nicht zu denken. Das lag daran, dass X11 bzw. das „X Window System“ zuerst auf professionellen Unix-Workstations eingesetzt wurde und dort Auflösungen unter 1024×768 Bildpunkten quasi nicht existent waren. Also wurden die Programme bzw. die Widgets der eingesetzten Toolkits auch nicht für kleinere Auflösungen optimiert (Siehe Collage rechts). Einer der Hauptgründe warum ich mir einen besseren Monitor zulegte, war diesem Umstand geschuldet.
Heutzutage sitzen die allermeisten PC-Besitzer vor einem flimmerfreien und hochauflösenden TFT-Monitor. Selbst bei Billig-Notebooks bekommt man mindestens eine Auflösung von 1366×768 Bildpunkten, Standard ist aber die Full-HD-Auflösung mit 1920×1080 Bildpunkten.

Die richtige Wahl der RAM-Verwaltung war ein Abenteuer

Im Jahr 1992 gab es für Heimanwender im PC-Bereich im Grunde nur ein Betriebssystem und zwar DOS. Ich nenne es absichtlich nicht MS-DOS, da z.B. mein damaliger PC mit Digital Research „DR DOS 5.0“ ausgeliefert wurde. Es gab damals noch ein gutes Dutzend weitere kompatible Versionen von verschiedenen Herstellern:

https://en.wikipedia.org/wiki/List_of_disk_operating_systems

Es gab zwar modernere und bessere Alternativen (Windows NT, OS/2 oder ein kommerzielles Unix), diese benötigten aber einen leistungsfähigen Rechner und/oder kosteten ein Vermögen in der Anschaffung.
Das größte Problem mit DOS war die Trennung des Speichers in verschiedene Bereiche. Für jemanden, wie mich, der vorher einen ATARI ST benutzt hat, war das eine neue Welt, da es beim ST keine Trennung des Speichers gab. Der ST konnte schon 1985 mit bis zu 4 MB RAM ausgestattet werden und der RAM war einfach verfügbar. Der wichtigste Speicherbereich für DOS war der Speicherbereich bis 640 kB, welcher von den normalen DOS-Programmen benutzt wurde. Ich spare mir hier weitere Details und verweise auf den passenden Wikipedia-Artikel:

https://en.wikipedia.org/wiki/Conventional_memory

Speicher oberhalb von 1 MB wurde auf hauptsächlich auf zwei Arten angesprochen:

Ältere Programme benötigten EMS-Speicher als zusätzlichen Speicher, neuere wollten aber XMS-Speicher (HIMEM.SYS, notwendig z.B. für Windows 3.x) . Dazu kamen dann noch Programme, welche den Speicher direkt adressieren konnten und einen sogenannten DOS-Extender einsetzten, welche aber nicht kompatibel zu EMS bzw. „EMM386.EXE“ waren (Emulierter EMS-Speicher war nicht mehr als XMS-Speicher verfügbar). Also fingen wir DOS-Benutzer an mit verschiedenen Boot-Disketten zu hantieren, welche unterschiedliche Konfigurationen vorhielten („CONFIG.SYS“ und „AUTOEXEC.BAT„). Auf der Festplatte lag die Konfiguration, welche von den meisten Programmen unterstützt wurde. Es wurde quasi zum Sport die beste Konfiguration, mit dem meisten verfügbaren Speicher unterhalb von 640 kB zu erstellen. Die diversen Hersteller von DOS-Betriebssystemen warben damals auch ziemlich offensiv mit diesen Zahlen. Mit dem Erscheinen von MS-DOS 6.0 konnte man sogenannte „Boot-Menüs“ anlegen, welche es ermöglichten beim Booten die jeweils benötigte Konfiguration in den Dateien „CONFIG.SYS“ und „AUTOEXEC.BAT“ auszuführen. Dadurch wurde der Einsatz von Bootdisketten hinfällig, aber nicht das Basteln an den Konfigurationen.
Als größter Fallstrick sollten sich Spiele erweisen. 1992 wurde z.B. „Ultima 7“ veröffentlicht, welches einen eigenen Speichermanager implementierte und nicht mit EMS und XMS zurechtkam. Dazu kam noch, dass sehr viel Speicher unterhalb von 640 kB frei sein musste (620 kB, wenn ich mich richtig erinnere), damit das Spiel überhaupt startete. Das war gerade für deutsche Anwender ein Problem, da man hierzulande üblicherweise den deutschen Tastaturtreiber geladen hatte, welcher ca. 10kB verschlungen hat. Dazu kamen noch ca. 50 kB für die CD-ROM-Treiber und das Programm MSCDEX.EXE. Wer dieses Spiel spielen wollte, musste dafür eine eigene Konfiguration basteln, die im Grunde nur den Maustreiber geladen hat (Welcher üblicherweise 10 kb benötigte).
Im Laufe des Jahres 1993 kamen dann die ersten Spiele auf den Markt, welche den DOS-Extender „DOS4GW.EXE“ benutzten. Spiele, welche EMS-Speicher benötigten, starben danach sehr schnell aus, was dazu führte, dass man die EMS-Konfiguration nur noch selten benötigte. Das Thema sollte aber Windows 95-Anwender noch ein paar Jahre verfolgen, da dieses Betriebssystem DOS zum Starten benötigte. Wollte man ein älteres Programm, welches EMS-Speicher benötigte unter Windows 95 starten, musste man in der „CONFIG.SYS“ den EMS-Speicher über „EMM386.EXE“ aktivieren. Dieser Speicher stand dann aber Windows 95 nicht mehr zur Verfügung. Man war also immer noch auf DOS-Basteleien angewiesen. Die Bastelei mit dem Speicher hatte erst ein Ende, als die meisten Entwickler auf die Win32-API umgestiegen waren bzw. Windows XP erschien.
Heutzutage macht sich kein Mensch mehr Gedanken über die Speicheraufteilung. RAM ist einfach da und wird benutzt.

Treiber waren ein Abenteuer

Hier muss ich zwischen zwei Dingen unterscheiden:

  1. Der Hardware bzw. Treiberkonfiguration.
  2. Woher man den Treiber bekam.

Die Hardwarekonfiguration musste von Hand vorgenommen werden

In Zeiten vor PCI und Plug’n Play und zu Zeiten von DOS hatten PCs 16 IRQs (Interruptleitungen). Diese waren von 0 bis 15 durchnummeriert. Jedes Gerät und jede Erweiterungskarte benötigte üblicherweise einen dieser IRQs. Die Anzahl von 16 klingt erst einmal nach relativ viel, man muss aber bedenken, dass über die Hälfte von ihnen schon standardmäßgi vergeben waren. Eine Liste ist z.B. hier zu finden:

https://en.wikipedia.org/wiki/Interrupt_request_(PC_architecture)

Ein großes Problem war, dass die damaligen Karten keine Autokonfiguration kannten und man bei den meisten Karten vor dem Einbau die passende Steckbrücke auf der Karte setzen musste. Gerade Anfänger wussten sehr häufig nicht, welche IRQs man verwenden musste bzw. welche noch zur freien Verfügung standen. Bei nur einer Erweiterungskarte spielte die IRQ-Problematik keine große Rolle, aber je mehr Karten man einbaute (Bei mir war damals z.B. eine Soundkarte und der Controller für mein CD-ROM-Laufwerk verbaut. Später kam dann eine Netzwerkkarte dazu), desto kritischer wurde die Situation. Dazu kam noch, dass jede Karte eine passende Hardwareadresse und oft auch einen DMA-Kanal benötigte. Je mehr Karten man im Rechner verbaut hatte, desto unübersichtlicher wurde die Situation. Amiga und Mac-Besitzer konnten damals nur müde über PC-Besitzer und ihre Probleme lächeln, da beide Rechnertypen schon immer „Plug’n Play“ bei ihren Erweiterungskarten unterstützten.
Im Laufe des Jahres 1994 wurden die ersten PCs und ISA-Karten mit „Plug’n Play“-Unterstützung auf den Markt gebracht. Diese erlaubten eine Autokonfiguration der IRQs auch unter DOS (Wobei ein Zusatzprogramm benötigt wurde), trotzdem war deren Konfiguration für die meisten Benutzer aber genauso ein Gefrickel, da parallel dazu immer noch die alten Karten im Einsatz waren und man deren IRQs händisch blocken musste. Mit dem Erscheinen von Windows 95 (Integriertes „Plug’n Play“) und dem breiten Einsatz von PCI-Karten (Diese unterstützen Interrupt-Sharing) verlor das Thema langsam an Bedeutung.
Heutzutage spielen IRQ -und Adresskonflikte keine Rolle mehr. Die Hardware wird einfach vollautomatisch konfiguriert.

Woher bekomme ich nur den passenden Treiber?

Auch wenn das Problem heute, in abgeschwächter Form, noch existiert, muss man bedenken, dass im Jahr 1992 und auch noch später, die einzige Quelle von Gerätetreibern die mitgelieferte Diskette (später CD) des Herstellers war. Ging diese verloren oder war defekt (Was bei Disketten sehr leicht passierte), stand man in der Regel sehr dumm da. Die einzigen weiteren Quellen waren Freunde mit der gleichen Hardware oder Computerläden, welche ihre Rechner selbst zusammengebaut haben. Bei den großen Märkten (Meinen PC habe ich bei ProMarkt gekauft) brauchte man erst gar nicht nachfragen, da sie nur als Händler fungierten.
Zwei Beispiele sollen diese Problematik verdeutlichen:

  1. Meinem ersten PC lag eine Treiberdiskette für die VGA-Karte (Irgendein Trident-Chip) bei. Auf dieser waren Treiber für Windows 3.0 und OS/2 2.0. Dumm war nur, dass der Treiber nicht richtig funktionierte und mein Monitor nach der Installation unter Windows 3.0 kein Bild dargestellt hat. Der Monitor zeigte nur quer laufende Streifen, was in Zeichen war, dass dieser außerhalb seiner Spezifikationen betrieben wurde. Es gab keine Möglichkeit die passende Bildwiederholfrequenz einzustellen. Ich konnte unter Windows 3.0 also nur 16 Farben benutzen. Erst Monate später fiel mir durch puren Zufall bei einem Kumpel eine passende Treiberdiskette in die Hände. Höhere Auflösungen hatten aber wegen der schlechten Daten des Monitors aber keinen großen Sinn. Immerhin kam ich in den Genuss von 256 Farben.
  2. Als im Oktober 1994 „OS/2 3.0 Warp“ auf den Markt kam, gab es dieses vergünstigt für 99 DM zu kaufen. Ein Kumpel, mein Cousin und ich haben damals das Betriebssystem gekauft, da wir davon überzeugt waren, dass es sich durchsetzen würde. Jedenfalls hatte jener Kumpel einen IBM PS/2-Rechner, was eigentlich die perfekte Voraussetzung für den Betrieb von OS/2 sein sollte. Leider brachte die damalige Version von OS/2 keine Treiber für IDE-CD-ROM-Laufwerke mit (Welches im Rechner nachgerüstet war). Es war also nur möglich die Installation per Disketten (ca. 20 3,5″ Disketten) oder über ein vorübergehend eingebautes Mitsumi-CD-Laufwerk (Nostalgiker werden sich erinnern) durchzuführen. Ein passender Treiber für das IDE-CD-ROM-Laufwerk wurde erst ein paar Monate später als Beilage-Diskette des „PC Magazin“ nachgeliefert. Spätere CD-Pressungen von OS/2 3.0 lieferten den Treiber dann mit aus, aber das hat uns damals nicht viel gebracht, da wir ja nur die erste CD-Pressung besaßen.

Weitere Probleme ergaben sich durch die Treiber selbst:

  1. Unterstützte die Hardware kein Plug’n Play musste man die Hardwarekonfiguration im Treiber von Hand vornehmen. Das konnte ziemlich blöd enden, wenn man z.B. einen falschen Interrupt gewählt hatte und das System nach der Treiberinstallation beim Booten hängen blieb. Unter DOS war es relativ einfach den Treiber zu entfernen, bei moderneren Systemen dagegen wurde es ziemlich aufwendig (z.B. Windows 95 im abgesicherten Modus booten, Treiber deinstallieren und nochmal von vorne anfangen).
  2. Die Treiberqualität war damals sehr oft nur von schlechter Qualität. Abstürze waren an der Tagesordnung.

Lustigerweise hatte ich damals unter Linux die wenigsten Treiberprobleme. Meine Hardware war so gewöhnlich, dass alles OotB unterstützt wurde.
Heute werden die meisten Treiber mit dem Betriebssystem ausgeliefert. Im Zweifelsfall gibt es das Internet. Dank modernem Plug’n Play muss nichts konfiguriert werden und Hardware funktioniert einfach so.

Disketten waren der Teufel!

Ich hasse Disketten, egal ob 5 1/4″) oder modernere 3,5″-Disketten. Disketten waren notorisch unzuverlässig und zwar immer dann, wenn man deren Inhalt am dringendsten benötigte. Ich weiß gar nicht, wie oft ich am PC saß und vor Frust fast in die Tastatur gebissen habe, weil mal wieder eine Diskette einen Lesefehler hatte. Die Hersteller konnten noch so sehr Werbung machen, aber meiner Erfahrung machte es kaum einen Unterschied ob man billige No-Name oder teure Markendisketten gekauft hat. Bei den teuren Disketten kamen die Fehler halt ein paar Wochen später.
Zu Zeiten eines C64 waren die 5¼“ Floppydisketten viel unempfindlicher als die späteren 3½“ HD-Disketten eines PCs, da Erstere eine viel niedrigere Datendichte hatten und der Lesekopf des Laufwerks einfach mehr Fläche pro Bit zur Verfügung hatte (Ich habe mal eine C64-Diskette, über die Fruchtsaft gelaufen ist, einfach durch Aufschneiden der Hülle, Abspülen mit destilliertem Wasser und Einsetzen in eine neue Hülle retten können.) Das Problem fing mit den 3½“ DD-Disketten an und wurde mit den HD-Disketten richtig schlimm. Die Datendichte war sehr viel höher und jedes kleine Staubkorn, konnte die Diskette bzw. deren Inhalt zerstören. Aus diesem Grund sind die meisten Diskettenbenutzer irgendwann dazu übergegangen wichtige Daten redundant auf mehreren Disketten zu speichern (Praktikabel waren drei Disketten). Irgendwann wurde es ziemlich unpraktikabel, mit den Dingern herumzuhantieren da die Dateien immer größer wurden und man gezwungen war Inhalte auf mehrere Disketten zu verteilen, mit den bekannten Konsequenzen (z.B. Diskette 6 von 10 hatte einen Lesefehler).
Was war das für eine Offenbarung, als es die ersten richtigen Alternativen zu Disketten gab (z.B. das ZIP-Laufwerk), die deutlich weniger fehleranfällig waren und deutlich mehr Speicherplatz anboten (Wobei das ZIP-Laufwerk irgendwann unter dem berüchtigten „Click of Death„-Fehler litt). Dazu kam noch, dass alle Alternativen zu Disketten deutlich schneller beim Lesen und Schreiben waren. Wer einmal ein Programm oder Spiel von 10 Disketten installiert hat, will diese Zeiten nie mehr zurück haben. Als dann die ersten USB-Sticks auf den Markt kamen, waren Disketten für mich komplett gestorben. Die letzte Diskette, welche ich in der Hand hatte, war eine Demo des DOS-Spiels „Aladdin“. Diese habe ich vor ein paar Monaten auf dem Weg zum Bahnhof auf der Straße gefunden. Ich fand den Fund so ungewöhnlich, dass ich die Diskette an die Tür meines Büros geklebt habe.
Heutzutage muss man sich über solche Dinge keine Gedanken mehr machen. Datenaustausch findet üblicherweise das Internet statt und USB-Sticks sind so billig geworden, dass ich regelmäßig einen verliere.

Weitere Gedanken

War früher wirklich alles so schlecht? Natürlich nicht. Gerade was das Verständnis der Hardware und der Betriebssysteme betrifft, war es damals einfacher. Eine 16bit-CPU ist sehr viel einfacher zu programmieren als moderne 64bit-CPUs. Auch konnte man damals sehr viel einfacher selbst Hand anlegen. Beim ATARI ST war es üblich bei bestimmten Hardwareupgrades den Lötkolben zu schwingen. Ein MS-DOS war überschaubar groß und im Endeffekt gab es im Vergleich zu modernen Systemen kaum Stellschrauben.
Vermisse ich diese Zeiten deswegen? Absolut nicht. Aber man erinnert sich gerne daran, da man durch sie geprägt wurde.

3 Antworten auf „Eine Lanze für moderne Computer brechen“

  1. Ein sehr schöner Artikel. An die Zeiten mit „Wing Commander“ und den Bootdisketten, AUTOEXEC.BAT editieren etc. erinnere ich mich auch noch…

    Ich hätte noch folgenden Artikelvorschlag, der in die gleiche Richtung geht: Schreib doch mal etwas über deine ersten Onlinezeiten. In deinem Artikel habe ich leider nichts über das Thema „Modem“ gelesen. Wäre aber mal ganz interessant.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.