Computerhardware: Vorwort

Aus Wikibooks
Zur Navigation springen Zur Suche springen

Die Grundlagen für die heutigen PC wurden schon vor sehr langer Zeit gelegt. Die ersten Computer wurden in den vierziger Jahren gebaut. Grafische Bedienoberflächen gibt es seit den fünfziger Jahren. Der erste erfolgreiche Heimcomputer war der „Altair 8800“ im Jahr 1974. 1981 brachte IBM den „Personal Computer“ auf den Markt, und Teile von dessen Bauplan stecken auch heute noch in jedem PC. Die Reklame und die Fachzeitschriften vermitteln uns den Eindruck, es würden ständig revolutionäre Innovationen eingeführt. Mitunter wird sogar technologischer Rückschritt als Fortschritt deklariert. Natürlich wissen Sie, dass Reklame nicht den Zweck hat, Sie zu informieren, sondern Sie zum Kauf zu animieren („Das ist neu! Das müssen Sie unbedingt kaufen!“), und Fachzeitschriften müssen sich mit reißerischen ­Artikeln von der Konkurrenz abheben und über jede „Neuheit“ und jedes Gerücht als Erste schreiben.

Haben Sie schon einmal darüber nachgedacht, dass beim PC „Neu“ oftmals bedeutet

  • „Voreilig auf den Markt geworfen und noch nicht in der Praxis bewährt“
  • „Die Nachbesserungen werden im Internet veröffentlicht, der Kunde wird sie dort schon finden.“
  • „Wenn 80% der Käufer zufrieden sind, reicht es aus.“ Oder genauer: „Gekauft ist gekauft. Wir haben das Geld des Kunden, und die Reklamationen werden von der Serviceabteilung abgeschmettert.“ Außerdem ist die Gewinnspanne bei Reparaturen und Ersatzteilen viel höher als beim Verkauf, vor allem bei Notebooks.

Aber wo sind denn die wirklichen Innovationen zu finden?

  1. 1948 wurde der Transistor erfunden und Norbert Wiener begründete die Kybernetik. Die Schaltungen und Verfahren, nach denen Gimp-icon-vergrössern-verkleinern.png CPU, Gimp-icon-vergrössern-verkleinern.png RAM, Gimp-icon-vergrössern-verkleinern.png ROM, Disketten und Festplatten arbeiten, galten in den 60er Jahren bereits als „bewährte Technologien“. 1960 wurde der Tintenstrahldrucker erfunden und 1971 der Laserdrucker. Seitdem ist alles kleiner, schneller und höher integriert, aber nicht prinzipiell anders.
  2. Magnetische Speicherverfahren gibt es schon lange: Die Tonaufzeichnung auf Stahldraht wurde bereits 1899 patentiert. Etwa 1940 erreichten Magnetbandgeräte die Praxisreife. Die Computer der 50er Jahren benutzten Magnettrommelspeicher als Arbeitsspeicher. Diese Technologien bereiteten den Weg für die 1956 entwickelte erste Festplatte und für die 1969 erfundene Diskette. Geschwindigkeit und Kapazität sind Jahr für Jahr gestiegen und der Preis pro Byte ist gefallen, doch die technologischen Grundlagen sind seit mehr als 100 Jahren unverändert.
  3. 1974 entwickelte Gimp-icon-vergrössern-verkleinern.png Intel den Gimp-icon-vergrössern-verkleinern.png 8-Bit-Prozessor i8080. Der 1978 entwickelte Nachfolger 16-Bit-Prozessor i8086 wurde Gimp-icon-vergrössern-verkleinern.png „kompatibel“ konstruiert, so dass die Programme des Vorgängers nach einer automatischen Umkodierung auf dem i8086 lauffähig waren. Intel hat sich 1978 gegenüber Gimp-icon-vergrössern-verkleinern.png IBM verpflichtet, jeden neuen Prozessor „abwärtskompatibel“ zu entwickeln – und hält sich auch daran, ebenso wie Gimp-icon-vergrössern-verkleinern.png AMD und andere Prozessorhersteller. „Abwärtskompatibel“ bedeutet, dass jeder neue Prozessor die Befehle seiner Vorgänger beherrscht, damit alte Programme auch auf neuen Prozessoren laufen.
  4. Im Jahr 1964 wurde die Maus erfunden, um die Arbeit mit Computern bedienerfreundlicher zu gestalten. 1973 wurde für den „Xerox Alto“ eine „grafische Bedienoberfläche“ entwickelt (engl. Graphical User Interface, abgekürzt GUI). Es dauerte 20 Jahre, bis man eine sinnvolle Verwendung für die Maus gefunden hatte: Mit dem „Amiga“ erreichte die Maus 1985 den Massenmarkt. 1990 hatte Microsoft erste Erfolge mit einem grafischen Zusatz für das Betriebssystem DOS, der den Namen „Windows“ erhielt. Damals konnte jeder wählen, ob er lieber kryptische DOS-Befehle eintippen will oder ob er den Computer mit der Maus bedient.
  5. Seit 2002 gibt es ein „Hyper-Threading“ genanntes Verfahren: Wenn bei der Abarbeitung eines Programmteils eine Wartezeit eintritt (z. B. weil die Daten aus dem Arbeitsspeicher noch nicht eingetroffen sind), wird zu einem anderen Programmteil gewechselt. 2006 wurden die ersten „Dual Core“-CPUs verkauft, die zwei Rechenwerke in der CPU enthalten. Doch neu ist die Parallelverarbeitung nicht. Bereits der britische „Colossus“, der 1943 zur Entschlüsselung von Geheimcodes eingesetzt wurde, war ein Parallelrechner. Heutige Supercomputer verteilen ihre Arbeit auf zehntausende Prozessoren.

Auch auf dem Gebiet der Software wurden viele der Grundlagen schon vor Jahrzehnten gelegt:

  1. 1974 wurde das Gimp-icon-vergrössern-verkleinern.png Betriebssystem CP/M entwickelt und 1981 erschien das daran angelehnte Gimp-icon-vergrössern-verkleinern.png MS-DOS 1.0 als erstes Betriebssystem von Microsoft. Alle paar Jahre gab es eine weiterentwickelte Version von MS-DOS, die letzte hatte die Versionsnummer 6.22. Für diejenigen, die DOS nicht kennen: Dieses Betriebssystem benutzt keine Maus und läuft in reinem Textmodus. Alle Befehle muss man an der Tastatur eintippen. Ein Beispiel für einen DOS-Befehl, der aus allen Ordnern des Laufwerks C: alle Word-Dateien aller Benutzer auf einen USB-Stick (Laufwerk E:) kopiert:   xcopy c:*.doc a:\*.doc /d /s /e /y. $nbsp; Solche Gimp-icon-vergrössern-verkleinern.png Kommandozeilenbefehle werden von hartgesottenen Profis benutzt, weil einige dieser Befehle viel effektiver sind als das Klicken mit der Maus, und manche dieser „klassischen“ Befehle können die letzte Rettung sein, wenn Windows nicht mehr funktioniert.
  2. Bei jeder neuen Version eines Betriebssystems achten die Entwickler darauf, dass neben allen Verbesserungen auch sämtliche alten Befehle weiterhin funktionieren. Wenn Sie auf ein moderneres Betriebssystem umsteigen, können Sie Ihre älteren, lieb gewonnenen Programme weiter verwenden und natürlich auch Ihre Daten weiter benutzen. Durch dieses freundliche Prinzip, die Abwärtskompatibilität, kann ich auch heute noch die meisten Befehle verwenden, die ich in den 80er Jahren gelernt habe. Allerdings hat die Abwärtskompatibilität auch Grenzen. In jeder neuen Version des Betriebssystems die „Andockstellen“ für ältere Programme mitzuschleppen ist aufwändig. Irgendwann, nach etwa zehn bis fünfzehn Jahren, halten die Hersteller den Aufwand nicht mehr sinnvoll, weil (angeblich) kaum noch jemand die Uraltprogramme nutzt.
  3. Windows XP, Vista, Windows 7, 8 und 10 kommen beim Start ohne DOS aus. Doch die klassischen DOS-Befehle sind nicht verschwunden. Alle Windows-Versionen besitzen ein ­Fenster für DOS-Befehle, die sogenannte Eingabeaufforderung. Im Laufe der Jahre wurden die DOS-Befehle weiterentwickelt. Weil viele neue Befehle hinzugekommen sind, spricht man nicht mehr von DOS-Befehlen, sondern von Kommandozeilenbefehlen. Das Befehlssortiment ist so umfangreich, dass sich moderne Windows-Betriebssysteme für Server vollständig mit ­Kommandozeilenbefehlen installieren, konfigurieren und bedienen lassen, ohne auch nur ein einziges Mal die Maus benutzen zu müssen.
  4. Es gibt nicht nur das fast immer verwendete Windows als Betriebssystem für PCs, sondern auch eine Vielfalt an alternativen Betriebssystemen, von denen Linux das bekannteste ist. Die Wurzeln dieser Betriebssysteme reichen meist noch weiter zurück, als die von Windows. Der größte Teil der Smartphones und Tablets benutzt das Betriebssystem „Android“, das auf Linux basiert.
  5. E-Mail ist auch nicht so neu, wie man denkt. Die ersten Versuche wurden bereits 1971 durchgeführt. Im Jahr 1979 stellte Eric Allman das Programm „Delivermail“ fertig, das 1981 in „Sendmail“ umbenannt wurde. Die übergroße Mehrzahl der E-Mail-Server benutzt dieses ­Programm auch heute noch in einer weiterentwickelten Version als „elektronisches Postamt“.

Hard- und Software wurden Jahr für Jahr in kleinen Schritten verbessert: höhere Taktfrequenzen, höhere Packungsdichten auf dem Chip und auf der Festplattenoberfläche, höhere Drehzahlen, mehr Farben usw. Durch Weiterentwicklung und Massenfertigung sind die Preise gesunken. Aber gibt es etwas grundsätzlich Neues? Nur selten.

  • Das bedeutet, dass ein solides Grundlagenwissen kaum veraltet. Es ist interessant, hilfreich und gewiss keine Zeitvergeudung, sich mit den Grundlagen zu beschäftigen.
  • Grundlagenwissen ist unumgänglich, um in „neuen“ Entwicklungen hinter den Werbeversprechen und Testberichten das Wesentliche zu erkennen und zu bewerten.
  • Grundlagenwissen ist notwendig, um den Verkäufer das Richtige fragen zu können, statt auf ihn hereinzufallen.
  • Grundlagenwissen hilft oft gerade dann weiter, wenn die Hard- oder Software „spinnt“ und einem allmählich die Ideen ausgehen, was man noch versuchen könnte.

Den meisten Leuten, die sich für Computer interessieren, fehlen diese Grundlagen vollkommen. In der Schule wird solches Wissen bisher nicht vermittelt. In Fachzeitschriften wird Grundlagenwissen leider nur selten und unsystematisch geboten. Die Redakteure und Autoren sind Computerfreaks und schreiben für andere Computerfreaks in deren Sprache.

Sicherlich hätten sich viele Computerprobleme und ein großer Teil der Datenverluste vermeiden lassen, wenn der Benutzer im entscheidenden Moment eine Vorstellung davon gehabt hätte, was sich gerade im Computer abspielt.

Wer mehr über seinen Computer weiß, wird weniger Probleme haben und weniger (teure und nervenaufreibende) Fehler begehen. Vielen Computerbenutzern, die sich eigentlich überhaupt nicht fur Technik interessieren, ist das bereits mehr oder weniger klar. Dieses Buch will Ihnen Grundlagenwissen vermitteln, das Ihnen bei realen praktischen Problemen hilft oder diese Probleme zu vermeiden hilft. Regeln und Empfehlungen werden begründet. Am wichtigsten aber ist:

  • Jeder kann dieses Buch verstehen, auch wenn er/sie sich eigentlich für Computertechnik überhaupt nicht interessiert. Natürlich werden Fachwörter verwendet, aber sie werden erklärt.
  • Selbst erfahrenere Computerbenutzer werden einige interessante Gedanken finden können.

Damit Sie das Buch auch auszugsweise lesen können, sind einige Wiederholungen unvermeidlich. Schauen Sie bitte im Glossar nach, wenn Sie auf unbekannte Begriffe treffen, die vielleicht erst in späteren Kapiteln erläutert werden.

Und nun viel Spaß beim Lesen!

In diesem Buch geht es vor allem um den „klassischen“ Desktop-PC und um Notebooks. Aber Smartphones, Tablets und E-Reader bestehen aus den gleichen Komponenten. Akkus und Bildschirme beispielsweise leiden unter Minusgraden auf die gleiche Weise, gleichgültig ob sie in einem Smartphone oder in einem Notebook stecken.

Angesichts der Verkaufszahlen von Smartphones und Tablets meinen einige Leute, das Zeitalter der klobigen PCs ginge dem Ende zu. Wer seinen PC hauptsächlich für E-Mail, zum Surfen und für ein paar Office-Anwendungen benutzt, für den scheint ein Desktop-PC überdimensioniert zu sein. Er ist teuer, laut, kompliziert, viel zu groß und verbraucht zu viel Strom. Ein Flach-PC ist da vielleicht die bessere Wahl.

Doch der Desktop-PC kann vieles, was seine kleinen Geschwister nicht leisten können.

  • Schreiben mit einer Tastatur, mit der auch Vielschreiber zufrieden sind,
  • Speichern und Verwalten großer Datenmengen wie Fotos, Videos und Musik,
  • Arbeit mit mehreren Programmen gleichzeitig und einfacher Datenaustausch zwischen den Programmen,
  • Arbeit mit vielen Fenstern und Nutzung mehrerer Displays mit großen Bildschirmdiagonalen,
  • Präzises Arbeiten (stellen Sie sich Bildbearbeitung mit den Fingerspitzen auf einem 8" Display vor!),
  • Rechenintensive Anwendungen, wie z. B. Videoschnitt,
  • Nutzung als Home-Server, Steuerung von Haustechnik und Modellbahnanlagen,
  • Nutzung als Flugsimulator und für anspruchsvolle Spiele,
  • DVD und Blu-ray lesen und brennen.

Hinzu kommt noch seine vielfältige Erweiterbarkeit: Fernsehkarte, ISDN-Karte, diverse Schnittstellenkarten u. a.

Beachten Sie die Unmenge an Schnittstellen. Was können Sie nicht alles (gleichzeitig) anschließen: Externe Festplatten, USB-Speichersticks, Drucker, Scanner, Kameras, Skype-Headset, Smartphones ... Und wenn die Schnittstellen nicht ausreichen, steckt man eine Erweiterungskarte in den PC.

Außerdem schont der PC die Umwelt. Man kann problemlos defekte Teile auswechseln und das PC-Leben durch Aufrüstung verlängern. Einen defekten Tablet-Computer können Sie nicht reparieren. Selbst wenn Sie das zugeklebte Gehäuse aufbrechen, finden Sie keine Standardteile, die man ersetzten könnte. Aufrüsten geht auch nicht. Und die Müllberge wachsen ... Freilich benötigt ein Desktop-PC mehr Energie, doch der gesamte Energieaufwand bei der Herstellung der Rohmaterialien und Komponenten ist so groß, dass der Energieverbrauch beim Kunden kaum ins Gewicht fällt. Und ich bin schneller mit der Arbeit fertig und kann den PC früher ausschalten.

Hatten Sie jemals Gelegenheit zu vergleichen, wie viel schneller man mit einem Desktop-PC eine umfangreiche Internet-Recherche durchführen kann, im Vergleich zu einen Notebook oder gar einem Tablet? Ich kann mir nicht vorstellen, dass ein Firmenchef seine Innendienst-Mitarbeiter mit Notebooks oder Tablets ausstatten würde. Wo „Zeit ist Geld“ gilt, darf man an der Leistung der Computer nicht sparen.

Als der PC 1981 auf den Markt kam, war er eine Arbeitsmaschine. Niemand konnte sich damals vorstellen, welche Vielfalt von Anwendungen es einmal geben wird und dass der PC Einzug in die Haushalte nehmen würde. Und nun, nach drei Jahrzehnten, ist der PC auf dem Weg zurück zu den Profis und den Anwendern, die ihn für ihre Arbeit und für anspruchsvolle Hobbys benötigen. Für viele „Normalanwender“ genügt ein Tablet-Computer.