Archiv der Kategorie: Grundlagen

Tipps & Tools fürs Internet

Der kompakte Ratgeber erklärt wesentliche Aspekte der Internet-Nutzung hinsichtlich Effizienz und Sicherheit. Neben typischen Client-Rollen mit Browser und Mail geht es auch um öffentliche Home- und Web-Server.

Das öffentliche Netz, sprich: Internet, scheint auf den ersten Blick unkomplizierter als das lokale Netzwerk. Der Aspekt Hardware fällt unter den Tisch, denn dafür sorgen der Internet-Provider beziehungsweise die Millionen Web-Server mit ihren Mail-, Download-, Kommunikations-, Info-Diensten. Wer nur Download-technisch unterwegs ist, hat nur die Sicherheitssorge: Er muss dafür sorgen, dass kein digitaler Schmutz im eigenen lokalen Netz landet – und dabei ist Linux per se ein effizienter Schutzwall. Aber Internet ohne Uploads ist nicht realistisch: Mail, Cloud, soziale Netzwerke, Banking, Online-Konten und Synchronisierungsdienste summieren sich zu einer Entropie-Wolke veröffentlichter Upload-Daten. Hier geht es um Datenschutz, also um Schutz durch Verschlüsselung, um Überblick und um Reduktion der Datenmenge. Technisch anspruchsvoll wird es, wenn Daten von Home-Servern und Web-Servern über das Internet erreichbar sein sollen, aber vielleicht nicht für alle und jeden.

Internet-Grundlagen

Bandbreiten und MBit/s

Die Währung der Internet-Provider sind die relativ unhandlichen MBit/s, Megabits pro Sekunde. Um aus MBit/s eine anschauliche Datenmenge zu errechnen, teilen Sie grob durch 10 und runden großzügig auf: Bei 16 MBit/s gehen also gut 1,6 MB (2,0) pro Sekunde durch die Leitung, bei 50 MBit/s gut 5 MB (6,25). Aktuell reichen die angebotenen Bandbreiten von 2 bis 400 MBit/s. Welche Bandbreite wofür notwendig ist, soll folgende Grobübersicht zeigen:

Mit 6 MBit/s funktionieren Mail, soziale Netzwerke und HTML-Darstellung noch flott, Video-Wiedergabe wird aber bereits bei mäßiger Qualität grenzwertig.

16 MBit/s garantieren schnelles Surfen, flotte Software-Downloads und mit Abstrichen den Zugang zu IPTV und TV-Mediatheken.

25-50 MBit/s erlauben rasante Medien-Downloads (Audio, Film) und ruckelfreie Wiedergabe aller Medienangebote, grenzwertig bei hochauflösendem HD-Inhalten.

100-200 MBit/s sind Bandbreiten für anspruchsvolles Home-Office und Download-Junkies mit keinerlei Limits auf der Empfängerseite. Noch schnellere Leitungen sind derzeit kaum sinnvoll, weil Internetserver solche Datenmengen selten ausliefern.

Die Übertragungstechniken

DSL (Digital Subscriber Line) nutzt vom grauen Kasten an der Straße (DSLAM) bis zum Kunden das Kupferkabel der Telefonleitung und ist mit 16 MBit/s am oberen Limit. VDSL (Very High Speed Digital Subscriber Line) verwendet denselben Übertragungsweg, kommt aber durch technische Optimierung auf maximal 52 MBit/s.

Internet via Fernsehkabel ist schneller als (V)DSL und mit geringem Aufwand erreichbar, wo bereits ein Kabelanschluss besteht. Die Angebote der größten Kabelprovider Vodafone und Unitymedia reichen derzeit von 32 bis 400 MBit/s.

Glasfaser direkt zum Endkunden (Fibre to the Home) könnte theoretisch 1000 MBit/s übertragen, ist aber praktisch überall mit langsameren Kupferkabel kombiniert. Die Angebote nennen daher vergleichsweise bescheidene 25 bis 200 MBit/s. Glasfasernetze sind in Deutschland nur sporadisch anzutreffen.

Das Funknetz UMTS erzielt theoretisch bis zu 42 MBit/s. Typische Angebote liegen bei 7, 14 und 21 MBit/s. Neben der relativ geringen Geschwindigkeit müssen UMTS-Kunden mit einem knappen Downloadlimit auskommen. Wer dies überschreitet, wird auf mageren Kilobyte-Durchsatz gedrosselt. UMTS bleibt ein Notnagel, wo sonst nichts geht.

Das Funknetz LTE (Long Term Evolution, UMTS-Nachfolger) liefert – in der Theorie – bis zu 375 MBit/s. Die Angebote der Hauptprovider Telekom, Vodafone und O2 bewegen sich überwiegend zwischen 7 und 50 MBit/s. Auch hier gibt es enge Downloadlimits, deren Überschreitung die Leitung drosselt.

Verfügbarkeit prüfen: Simpelster Rat ist es, positive Erfahrungen der Nachbarn zu erfragen. Eine systematische Recherche-Quelle ist der Breitbandatlas unter www.zukunft-breitband.de, der Techniken und Anbieter für die Region anzeigt und dabei auch einen Filter für die gewünschte Bandbreite vorsieht. Mit einer Verfügbarkeitsprüfung beim passenden Anbieter mit genauer eigener Adresse erhalten Sie dann zuverlässige Auskunft.

Downloads und Uploads: Provider-Angebote nennen meist nur die Empfangsleistung, also die Download-Bandbreite. Das ist insofern berechtigt, als 99 Prozent der Endkunden nur Daten abholen wollen (HTML-Seiten, Medien-Streams, Datei-Downloads). Wer zu Hause einen Server betreibt oder beruflich große Datenmengen an Server verschicken muss, sollte auch an die Upload-Leistung denken. Die liegt oft nur bei 1 bis 3 MBit/s. Schnellere Uploads sind in der Regel nicht gesondert, sondern nur über teurere Gesamtpakete zu erreichen, die dann zugleich schnellere Downloads erlauben.

Breitbandatlas

 

Die zwei IP-Adressen (LAN und WAN)

Im lokalen Netzwerk (LAN – Local Area Network) hat jedes Gerät hat seine IP-Adresse. Der Zugang ins Internet bedeutet den Schritt in ein anderes Netzwerk – ins WAN (Wide Area Network), und dafür ist eine zweite, öffentliche IP-Adresse notwendig. Alle PCs, Tablets oder sonstige Geräte in Ihrem Heimnetz gehen mit dieser einen WAN-IP ins Internet. Die öffentliche IP-Adresse können Sie nicht beeinflussen: Sie wird dem Router einmal täglich neu vom Provider zugewiesen. Auch beim manuellen Neustart des Routers erhalten Sie eine neue öffentliche WAN-IP. Feste WAN-IPs gibt es nur noch bei einigen Uralt- oder teuren Business-Verträgen.

Für typische Internet-Nutzung ist es unerheblich, seine WAN-IP zu kennen: Das Gerät im lokalen Netz fordert eine Seite im öffentlichen Internet an (meist via Browser), der Router merkt sich die lokale IP, geht mit der öffentlichen WAN-IP zum angefragten Internet-Server, der schickt die angefragten Daten über die WAN-IP zum Router zurück, und der Router leitet sie schließlich an jenes Gerät weiter (an dessen lokale IP-Adresse), das die Anfrage ausgelöst hatte.
Der skizzierte Vorgang der „Network Address Translation“ (NAT) des Routers sorgt dafür, dass der Benutzer über den permanenten Wechsel vom lokalen Netz ins öffentliche Netz und wieder zurück nichts wissen muss. NAT sorgt ferner dafür, dass das lokale LAN-Netz und die dort befindlichen Teilnehmer vor unerwünschten Anfragen aus dem Internet abgeschottet sind: Alle Teilnehmer (IPs) im lokalen Netz sind nicht direkt erreichbar, sondern nur über die WAN-IP. Eine direkte Kommunikation vom Internet zu einem LAN-PC ist daher nicht möglich, und das ist aus Sicherheitsgründen auch gut so. Der Router verwirft alle Datenpakete aus dem Internet an die öffentliche WAN-IP, die von keinem Gerät im lokalen Netzwerk angefordert wurden.

Externe WAN-IP ermitteln

Die externe WAN-IP wird wichtig, wenn Sie über das Internet auf irgendeinen Serverdienst Ihres lokalen Netzwerks zugreifen oder die Sicherheit Ihres Netzes von außen prüfen wollen (etwa mit nmap). Die WAN-IP zeigt der Router in seiner Konfigurationsoberfläche, so etwa die Fritzbox unter „Übersicht“. Ferner gibt es zahlreiche Webdienste wie etwa www.browsercheck.pcwelt.de/firewall-check, welche die öffentliche IP via Browser zurückliefern.
Auf der Kommandozeile genügt der Befehl:

curl ifconfig.co

Sie erhalten ohne Umschweife die öffentliche WAN-IP. Auch das beliebte Kommandozeilen-Tool inxi, das über den gleichnamigen Paketnamen schnell nachinstalliert ist, beherrscht mit Parameter inxi -i die Abfrage der WAN-IP.

Das Heimnetz über Portfreigaben öffnen

Wer Daten oder Dienste seines lokalen Heimnetzes unterwegs aus dem öffentlichen Internet erreichen will, steht vor technischen und sicherheitstechnischen Problemen. Hinsichtlich der Benutzerauthentifizierung müssen weit strengere Regeln gelten als im lokalen Netz, da mit permanenten Einbruchsversuchen zu rechnen ist. Daher verbieten sich standardisierte User-Namen wie „root“ oder „gast“, und bei den Zugangskennwörtern sind komplexe Passwörter zwingend, an denen Wörterbuchattacken scheitern. Technisch entstehen drei Aufgaben:

1. Der Router benötigt eine Portfreigabe. Welche Portnummer (1- 65535) Sie nach außen öffnen, ist unerheblich – Sie müssen sie sich nur merken. Mit einer Portnummer größer 1000 erhöhen Sie theoretisch die Sicherheit, da Portscanner oft nur prominente Standardports abfragen (etwa 21 FTP, 22 SSH, 80 HTTP, 110 POP-Mail, 143 IMAP-Mail) oder die ersten 1000. Die Portfreigabe geschieht im Router, in der Fritzbox unter „Internet -> Freigaben -> Portfreigaben“. Bei anderen Routern mag das „Portforwarding“, „Portmapping“ oder „Virtual Server“ heißen, das hier für die Fritzbox erklärte Prinzip ist aber überall gleich: Sie tragen neben „von Port“ und „bis Port“ eine frei gewählte Portnummer ein, die nach außen geöffnet wird. Unter „an Port“ müssen Sie genau den Port-Kanal angeben, mit dem der Serverdienst arbeitet. Das kann beispielsweise 22 für SSH oder 80 für einen Webserver sein. Die Abbildung zeigt ein Beispiel für den SSH-Fernzugriff.

2. Der Heimserver benötigt eine feste lokale IP. Damit der Router Anfragen aus dem Web über die definierte Portnummer (frei wählbar) an das richtige Gerät schickt, ist es zuverlässiger, sich nicht auf dessen Hostnamen zu verlassen, sondern mit einer festen IP zu arbeiten. Die Fritzbox erledigt dies unter „Heimnetz -> Heimnetzübersicht -> Netzwerkverbindungen“ mit der Option „Diesem Netzwerkgerät immer die gleiche IPv4-Adresse zuweisen“.

3. Für den Fernzugriff auf den heimischen Server benötigen Sie die öffentliche WAN-IP. Der Fernzugriff für das abgebildete SSH-Beispiel kann dann mit ssh -p [Port] [User]@[WAN-IP] erfolgen, also etwa mit:

ssh -p 10880 ha@178.27.34.204

Dabei stellt sich jedoch das Problem, dass Sie die aktuelle WAN-IP Ihres Heimnetzes nicht ermitteln können, wenn Sie sich außerhalb Ihres Netzwerks befinden. Dafür gibt es zwei Lösungen:

3a. Sie registrieren eine Pseudo-Domain etwa bei www.noip.com oder www.dlinkddns.com (für D-Link-Router). Kontodaten und Hostnamen geben Sie dann in die dafür vorgesehenen Eingabefelder des Routers ein. Bei der Fritzbox finden Sie diese unter „Internet -> Freigaben -> Dynamic DNS“. Der Router wird ab sofort bei jeder Einwahl seine WAN-IP an diesen Dienst weitergeben. Folglich führt die Angabe der Pseudo-Domain weltweit in Ihr Heimnetz.
3b. Sie sorgen selbst dafür, dass die aktuelle WAN-IP Ihres Netzwerks irgendwo im Internet hinterlegt ist. Für diese Methode ohne externe Fremdhilfe liefert der nachfolgende Haupttext dieses Artikel Tipps und Anregungen.

Portfreigabe

Speedtest mit und ohne Browser

Wie schnell ist die Internetverbindung? Als aussagekräftig haben sich die Messwerte von Speedtest.net erwiesen (www.speedtest.net), und viele Provider, die scheinbar eigene Speedtests anbieten, nutzen im Hintergrund ebenfalls Speedtest.net. Die typische Messung erfolgt mit dem Browser, der dazu aktuelles Adobe Flash benötigt. Auf Linux-Systemen, zumal auf Servern ohne grafische Oberfläche, gibt es eine universellere Testmethode im Terminal. Das Python-Script speedtest.py benötigt keinen Browser, lässt sich mit

wget -O speedtest.py https://raw.githubusercontent.com/sivel/speedtest-cli/master/speedtest.py

in das aktuelle Verzeichnis laden und danach mit

python speedtest.py

starten. Durch Pings ermittelt das Script den optimalen Testserver und führt dann die Messungen für die Download- und Upload-Geschwindigkeit durch. Technische Basis ist auch hier der weltweite Web-Service von speedtest.net.

Speedtest

Wie schnell ist der Web-Server?

Wer seinen eigenen Webserver testen will, nutzt am besten das Kommandozeilen-Tool Siege, das unter diesem Paketnamen überall unter Linux verfügbar ist. Siege erzeugt auf dem Zielserver mit einer konfigurierbaren Flut von Anfragen eine ordentliche Last. Siege hat die Anlagen eines Denial-of-Service-Tools und sollte nur zeitlich und numerisch begrenzt, außerdem nur auf eigene Server losgelassen werden. Einen Stresstest mit 50 Verbindungen startet dieses Kommando:

siege -c50 -b www.meinserver.de

Die Anfragen laufen endlos, bis Sie mit Strg-C abbrechen. Nach Abbruch der Belagerung zeigt Siege eine Statistik der Messwerte an. Weitere Server-Tests mit zusätzlichen Ratschlägen zur Leistungsverbesserung bieten Web-Dienste wie https://developers.google.com/speed/pagespeed/insights von Google oder die Pingdom-Analysen unter http://tools.pingdom.com/fpt/.

Downloads und Uploads mit wget und curl

Für automatisierte Downloads und Uploads sind Browser und grafische FTP-Programme ungeeignet. Die wichtigsten Kommandozeilen-Werkzeuge wget und curl sind daher auf den meisten Linux-Systemen standardmäßig installiert. Wget beherrscht den rekursiven Download und kann somit eine komplette Website lokal speichern:

wget –r -l8 http://meineseite.de

Dieser Befehl holt bis in die achte Verzeichnisebene (-l8) alle Dateien von der angegebenen Website. Einzeldownloads sind natürlich mit wget http://seite.de/Datei.txt ebenfalls möglich. Über wget-Downloads lassen sich auch PHP-Scripts auf Web-Servern auslösen. Wo nötig, kann sich wget über die Parameter „–user=“ und „–password==“ auf dem Webserver ausweisen.

Curl beherrscht Uploads und Downloads, allerdings nicht rekursiv. Da Sie alle Downloads mit wget erledigen können, ist Curl vor allem für automatische Uploads relevant. Der entscheidende Parameter für Uploads ist „-T“. Die meist nötige Authentifizierung für FTP-Uploads beherrscht Curl über den Parameter „–user [ftpuser]:[kennwort]“. Das folgende konkrete Beispiel

curl -T ha.kbdx ftp://meinserver.de/ordner/ha.kbdx --user ha:geheim

ist im nachfolgnden Haupttext genauer erläutert.

Domain-Abfragen mit Host und Whois

Das standardmäßig installierte Tool host gibt die IP-Adresse einer Web-Domain zurück:

host google.de

Wer weitere Details erfragen will, sollte whois nachinstalieren, das mit gleichnamigen Paketnamen unter jedem Linux zu beziehen ist. Das Tool liefert zur angegebenen Site mindestens ausführliche Angaben zum Hoster, oft aber weitere Infos zum Domain-Besitzer einschließlich Adresse und Telefon. Whois ist auch hilfreich, um bei Spam-Mails mit gefälschten Adressen den realen Web-Server zu ermitteln.

 

Tipps und Tricks fürs Internet

1. Sicherheit im Browser: Die Schutzmechanismen

Firefox bietet unter „Extras -> Einstellungen -> Sicherheit“ drei Optionen, um betrügerische Webseiten zu blockieren. Hier sollten unter „Allgemein“ alle Kästchen aktiviert sein. Es handelt sich allerdings nur um einen Grundschutz, der durch Add-ons erweitert werden sollte. Chrome zeigt unter „Einstellungen -> Erweiterte Einstellungen anzeigen -> Datenschutz“ die Option “ Mich und mein Gerät vor schädlichen Websites schützen“. Früher hieß die Option technisch klarer „Phishing- und Malware-Schutz aktivieren“. Sie sorgt dafür, dass Chrome den Zugang auf gefährliche Sites blockiert und vor „ungewöhnlichen“ Downloads warnt. Ob es sich letztlich um eine harmlose Datei handelt, welche die Google-Datenbank nur nicht kennt, können Sie dann selbst entscheiden.

Weitere empfohlene Browser-Erweiterungen finden und installieren Sie über „Add-ons“ in Firefox oder über „Einstellungen -> Erweiterungen“ in Chrome/Chromium. Das Firefox-Add-on Noscript verhindert, dass Webseiten Javascript, Java oder andere ausführbare Inhalte automatisch starten. Sie haben die Kontrolle, ob solche Scripts starten dürfen. Das ist nicht immer bequem, da auf vielen interaktiven Seiten die Scripts explizit erlaubt werden müssen. Einmal erlaubte Sites landen aber in der Whitelist und müssen später nicht mehr bestätigt werden.

Chrome zeigt unter „Einstellungen -> Erweiterte Einstellungen -> Inhaltseinstellungen -> JavaScript“ eine Option, Javascript generell zu verbieten. Das ist nicht praktikabel, da dann sehr viele interaktive Web-Seiten nicht mehr funktionieren (etwa Google Drive, Google Store). Eine alltagstaugliche, mit Firefox-Noscript vergleichbare Lösung, steht nach der Einstellung von Notscript 2014 aus.
HTTPS Everywhere: Die Erweiterung wählt, wo immer verfügbar, eine verschlüsselte HTTPS-Verbindung zu einer Website. Verschlüsseltes HTTPS ist vor allem bei Bankgeschäften und Einkäufen im Internet unverzichtbar, weil Sie Zugangsdaten oder Kreditkartendaten über das Netz versenden müssen. Der Browser zeigt eine verschlüsselte Verbindung zur zertifizierten Gegenstelle in der Adresszeile grün gefärbt. Verifizieren Sie das immer, bevor Sie Daten eingeben.

Die über Jahre empfohlene Erweiterung Web of Trust (WOT) ist nach Bekanntwerden zweifelhafter Verkaufspraktiken disqualifiziert. WOT basiert auf einer an sich zuverlässigen Community-Datenbank mit betrügerischen oder jugendgefährdenden Websites und warnt vor dem Betreten solcher Seiten. Ende 2016 wurde allerdings bekannt, dass WOT die gesammelten Benutzerdaten an Big-Data-Kollektoren verkauft. Mozilla Firefox nahm WOT umgehend aus seinem Add-on-Angebot, und wo es bereits läuft, rät der Browser zur Abschaltung. Für Google Chrome ist es weiter erhältlich. WOT erhöht weiterhin die Sicherheit bei der Internet-Nutzung, ist aber aus Datenschutzgründen mehr als bedenklich.

Firefox blockt WOT: Die Browser-Erweiterung WOT verkauft gesammelte Nutzerdaten und hat sich damit aus Datenschutzgründen disqualifiziert.

2. Maximale Sicherheit: Banking mit Livesystem

Die Mehrzahl der Bankgeschäfte – Überweisungen, Buchungen, Daueraufträge – werden heute online mit SMS-TANs erledigt. In diesem Fall ist der Browser die Schnittstelle zur Bank, und dessen Sicherheitslücken können potenzielle Angreifer ausnutzen. Voraussetzung bei allen bisher bekannten Angriffsmethoden war aber immer, dass unabhängig von der eigentlichen Banking-Aktion bereits vorher schädlicher Code auf dem System eingeschleust wurde. Daher bietet das virenresistente Linux deutlich höhere Sicherheit als Windows. Überhaupt keine Chance haben Schädlinge, wenn Sie Bankgeschäfte mit Linux und einem schreibgeschützten Livesystem erledigen.
Spezialisierte Livesysteme mit Sicherheitsfokus sind Tails (https://tails.boum.org/index.de.html), Porteus (www.porteus.org) oder Trusted End Node Security (früher Lightweight Portable Security, https://www.spi.dod.mil/lipose.htm). Im Prinzip minimiert aber jedes beliebige Livesystem alle Risiken drastisch. Auf Livesystemen überleben Systemveränderungen vom Benutzer oder von einem Virus keinen Neustart. Da Sie als Software nicht mehr als den Browser benötigen, eignen sich am besten kleine, schnell startende Livesysteme wie etwa Puppy Linux, Quirky, Antergos oder Bunsenlabs.

Mit einem Linux-Livesystem sicher zur Bank: Da nur ein Browser notwendig ist, genügt jedes minimale Livesystem wie hier Puppy Linux.

3. Datenschutz durch Spezialsystem Tails

Tails (The Amnesic Incognito Live System) ist eine populäre Linux-Distribution im Zeichen von Anonymität und Datenschutz. Wenn Sie auf der Projektseite https://tails.boum.org auf „Installieren Sie Tails“ klicken, startet ein deutschsprachiger Installations-Assistent, der Sie Schritt für Schritt bei der Erstellung eines USB-Sticks begleitet. Tails erfüllt als Livesystem alle Sicherheitsansprüche, geht aber wesentlich weiter: Es nutzt das Tor-Netzwerk, das sämtlichen Internetverkehr (Browser, Mail, FTP) über jeweils drei Zwischenstationen abwickelt. Zielserver erfahren also nie Ihre öffentliche WAN-IP, sondern nur die des letzten Tor-Knotens.

Das Livesystem ist vorab so konfiguriert, dass alle Internet-Programme wie Browser oder Mail-Client das Tor-Netzwerk einsetzen. Sobald Sie sich angemeldet haben, dauert es ein paar Sekunden und Sie erhalten die Benachrichtigung, dass Tor gestartet ist. Das Zwiebelsymbol im Systempanel färbt sich grün. Ein Rechtsklick und der Aufruf des „Kontrollpanel“ bestätigt die Verbindung zum Tor-Netz. Somit können Sie mit dem anonymisierten Surfen beginnen. Wenn Sie eine der zahlreichen Seiten zur Ermittlung Ihrer externen IP-Adresse aufrufen (www.wieistmeineip.de), werden Sie sehen, dass sich die externe Adresse regelmäßig ändert.

Als Tor-Knoten kann sich allerdings jeder zu Verfügung stellen („Einstellungen -> Beteiligung -> Relais-Verkehr…“). Es gibt keine technische (Bandbreite) oder personelle Kontrolle. Die Surfgeschwindigkeit kann daher je nach Zwischenstationen beträchtlich sinken. Gelingt es Überwachungsstellen, Tor-Knoten zu kontrollieren, können Nutzer wieder de-anonymisiert werden. Außerdem ist es bei strafrechtlichen Tatbeständen zwar ein ungleich höherer Aufwand, aber keineswegs ausgeschlossen, durch Analyse aller Tor-Verbindungsdaten die Spur zum Täter zurückzuverfolgen.
Für (technische) Sicherheit im Web ist Tails nicht notwendig. Es handelt sich um ein Anonymisierungswerkzeug für besonders misstrauische Nutzer, die dafür auch langsame Verbindungen in Kauf nehmen. Wer nur Datensammler wie Google mit Re-Targeting und nachfolgender Werbebelästigung loswerden will, kommt mit dem „Private“- oder „Inkognito“-Modus von Firefox und Chrome aus (-> Punkt 5).

4. Datenschutz im Browser: Verschlüsselte Synchronisierung

Die Browser-Synchronisierung von Lesezeichen, Online-Kennwörtern, Einstellungen, Erweiterungen und Skins bedeutet für Nutzer mehrerer Geräte einen unschätzbaren Komfort. Weniger erfreulich ist der Nebenaspekt, dass dabei Mengen von persönlichen Daten auf Google- oder Mozilla-Servern hinterlegt werden müssen.
Der Mozilla-Browser Firefox verschlüsselt standardmäßig alle Daten, wobei der Schlüssel auf dem Gerät des Benutzers verbleibt. Generell darf Mozilla zu den „Guten“ gerechnet werden, die ein Auswerten von Nutzerdaten nicht selbst betreibt, sondern allenfalls zulassen muss.
In Chrome/Chromium werden standardmäßig nur die Kennwörter verschlüsselt. Aber unter „Einstellungen -> Erweiterten Synchronisierungseinstellungen“ (vorherige Google-Anmeldung vorausgesetzt) gibt es die zusätzliche Option „Alle synchronisierten Daten […] verschlüsseln“, bei der Sie ein individuelles Kennwort zur Sync-Verschlüsselung vergeben, das unabhängig vom Google-Kennwort ist. Der Komfortverlust ist nicht gravierend, da Sie dieses Kennwort auf jedem weiteren Gerät nur ein einziges Mal eingeben müssen. Alle Daten landen dann verschlüsselt auf dem Google-Server, der Schlüssel dazu (Kennwort) verbleibt auf dem lokalen Gerät.

Keine Infos an Google verschenken: Die Browser-Synchronisierung in Chrome und Chromium lässt sich so einstellen, dass Google nichts mehr zu lesen hat.

5. Datenschutz im Browser: „Inkognito“ und „Do not Track“

„Inkognito“ Surfen bietet keinerlei technischen Schutz vor digitalen Schädlingen oder betrügerischen Webseiten. Es anonymisiert auch nicht die IP-Nummer und verschleiert keine strafbaren Handlungen. Das Browsen im „Inkognito-Fenster“ (Chrome) oder im „Privaten Fenster“ (Firefox) ist aber eine nützliche Datenschutzmaßnahme: Es unterbindet den Großteil der Tracking-Schnüffelei der Website-Betreiber. Ein wichtiger Nebenaspekt ist ferner, dass Sie hier ohne Cookies und Web-Protokolle unterwegs sind und daher neutrale und ungefilterte Ergebnisse erhalten (gelegentlich wichtig bei Suchmaschinen und Online-Shops). In Chrome und Firefox starten die Tastenkombinationen Strg-Umschalt-N und Strg-Umschalt-P am schnellsten ein privates Fenster.

Neben dem nützlichen Inkognito-Modus bietet mittlerweile fast jeder Browser eine „Do not track“-Option. Dieser Info-Tag im HTTP-Header der Browser-Anfrage sollte es der Gegenstelle verbieten, Nutzungsprofile über den Besucher anzulegen. Der Effekt ist aber fraglich, weil Websites nicht verpflichtet sind, diese Bitte zu berücksichtigen. In Chrome/Chromium wählen Sie im Menü „Einstellungen“ und dort ganz unten „Erweiterte Einstellungen“. Im Abschnitt „Datenschutz“ finden Sie die Option „Mit Browserzugriffen eine „Do Not Track“-Anforderung senden“. Auch beim Firefox ist „Do not track“ nicht standardmäßig aktiv. Sie finden die Einstellung im Menü unter „Einstellungen -> Datenschutz“ in der Option „Websites mitteilen, meine Aktivitäten nicht zu verfolgen“.

6. Datenschutz: Mailverschlüsselung mit Thunderbird

Das Verschlüsseln der Mail-Korrespondenz ist wie jede Datenschutzmaßnahme mit gewissem Mehraufwand verbunden. Die Kombination von GnuPG plus Thunderbird mit Erweiterung Enigmail ist die wohl komfortabelste Lösung, erfordert aber etwas Gewöhnung und zumindest einen Anteil von Mail-Partnern, die ebenfalls GnuPG nutzen. Thunderbird und GnuPG (GNU Privacy Guard) sind auf Linux-Desktops meist vorinstalliert, und falls nicht, über die Paketnamen „thunderbird“ und „gnupg“ schnell nachgerüstet (für Windows gibt es Downloads unter www.mozilla.org und www.gnupg.org). Enigmail finden und installieren Sie in Thunderbird über „Add-ons“.

GnuPG verwendet zwei Schlüssel: Der öffentliche Schlüssel eines Mail-Teilnehmers wird dafür genutzt, Nachrichten an diesen Teilnehmer zu verschlüsseln. Der Teilnehmer selbst entschlüsselt die Nachricht mit seinem geheimen, privaten Schlüssel.
Nach der Installation der Enigmail-Erweiterung und einem Thunderbird-Neustart verwenden Sie im automatisch angebotenen Einrichtungsassistenten die „ausführliche Konfiguration“. Im ersten Schritt geben Sie die „Passphrase“ ein. Das Passwort benötigen Sie später, um auf Ihre Schlüssel zugreifen zu können. Es bildet auch die Grundlage für die Schlüssel. Nach der doppelten Eingabe legt Enigmail das neue Schlüsselpaar (öffentlich/privat) an. Falls Sie auf einem anderen Rechner bereits ein eingerichtetes Enigmail und ein Schlüsselpaar besitzen, wählen Sie im Assistenten die Option, bestehende Schlüssel zu importieren. Schlüssel lassen sich über „Enigmail -> Schlüssel verwalten“ als Ascii-Dateien exportieren und auf anderen Rechnern importieren.

Öffnen Sie wie gewohnt den Editor zum Verfassen von Nachrichten. Dort hat Enigmail jetzt eine weitere Symbolleiste platziert. Möchten Sie eine ausgehende Nachricht verschlüsseln, benötigen Sie den öffentlichen Schlüssel des Empfängers. Wenn Ihnen dieser als Textdatei vorliegt, können Sie den Schlüssel über „Enigmail -> Schlüssel verwalten -> Datei importieren“ einlesen. Alternativ gibt es Schlüsselserver, die öffentliche GnuPG-Schlüssel aufbewahren. Über „Schlüsselserver -> Schlüssel suchen“ sehen Sie nach, ob die Empfängeradresse dort eingetragen ist; falls ja, importieren Sie den Schlüssel mit einem Klick. Umgekehrt ist es sinnvoll, den eigenen Schlüssel über „Schlüsselserver -> Schlüssel hochladen“ im Web zugänglich zu machen.

Nach einem Schlüsselimport ist der neue Mail-Empfänger Enigmail/GnuPG bekannt. Künftig klicken Sie beim Verfassen einer Nachricht an diesen Empfänger auf das Symbol mit dem Schloss. Enigmail lässt sich auch so einstellen, dass Mails automatisch verschlüsselt gesendet werden, wenn für die Empfänger-Adresse schon ein Schlüssel vorliegt („Enigmail -> Einstellungen -> Senden“). Um Mails verschlüsselt zu versenden, müssen Sie Ihr Passwort eingeben. Wenn Sie mit dem Schloss-Symbol verschlüsselt senden wollen, aber kein Empfänger-Schlüssel vorliegt, erscheint automatisch der Hinweis, dass dieser Empfänger „nicht gültig“ ist. Dann besorgen Sie sich entweder den öffentlichen Schlüssel oder Sie senden unverschlüsselt.

Erhalten Sie umgekehrt eine E-Mail, die verschlüsselt wurde, erkennt Enigmail das automatisch. Wenn Sie im Vorschaubereich von Thunderbird auf das Element klicken, werden Sie dazu aufgefordert, das Passwort einzugeben. Wenige Augenblicke später erscheint die Nachricht.

Beachten Sie, dass Sie bei der Nutzung mehrerer Rechner die Schlüsselverwaltung manuell synchron halten müssen. Eine wichtige Hilfe ist wieder „Enigmail -> Schlüssel verwalten -> Datei exportieren“, wobei Sie einfach sämtliche Schlüssel markieren. Die resultierende Ascii-Datei lässt sich dann auf dem nächsten Rechner in einem Rutsch importieren.

Verschlüsselte Mail mit GnuPG und Enigmail: Wenn Sie versuchen, verschlüsselt zu senden, aber für den Adressaten kein Schlüssel vorliegt, öffnet sich automatisch die Schlüsselverwaltung.

7. Datenschutz: Verschlüsseln der Cloud-Daten

Dateien auf Dropbox, Onedrive, Hidrive & Co. sollten verschlüsselt werden, zumindest jene mit sensiblem Inhalt. Ohne Vorbereitung praktikabel, aber etwas unkomfortabel sind passwortgeschützte Packer-Archive etwa mit 7-Zip. Wenn Sie eine Cloud wie Dropbox über einen lokalen Synchronisierungsordner nutzen, dann ist der Einsatz von EncFS (Encrypted File System) mit grafischem Frontend Cryptkeeper komfortabler. EncFS und Cryptkeeper sind unter Debian, Ubuntu oder Linux Mint mit

sudo apt-get install encfs cryptkeeper

schnell nachinstalliert. Die Ersteinrichtung müssen Sie auf der Kommandozeile mit encfs erledigen, da Cryptkeeper Quellordner und Mountordner auf gleicher Ebene anlegt. Das wäre in diesem Fall kontraproduktiv, weil die Cloud neben den verschlüsselten auch die unverschlüsselten Dateien erhielte:

 encfs ~/dropbox/privat ~/Dokumente/dropbox

Sie arbeiten dann unter „~/Dokumente/dropbox“ normal mit den Dateien, die unter „~/dropbox/privat“ verschlüsselt werden. In der Cloud landen demnach nur verschlüsselte Daten.
Den bequemen cryptkeeper mit seinem Schlüsselsymbol in der Systemleiste können Sie später über die Option „Importiere EncFS Ordner“ mit dem Dropbox-Ordner bekannt machen. Der erlaubt einfache Auswahl zwischen mehreren EncFS-Ordner und schnelles Mounten und Aushängen per Mausklick.
Beachten Sie, dass alle sonstigen Dateien im Cloud-Verzeichnis weiter unverschlüsselt bleiben. Wenn Sie diese nachträglich verschlüsseln möchten, müssen Sie diese in den verschlüsselten Unterordner verschieben.

8. Datenschutz: Keepass-X mit Synchronisierung

Die Browser-Synchronisierung (-> Punkt 4) ist eines der komfortabelsten Cloud-Angebote. Dennoch hat sie zwei Mängel: Erstens machen Sie sich abhängig von Google oder Mozilla, zweitens speichern Firefox und Chrome keine lokalen Kennwörter. Wenn Sie alle Passwörter im Griff haben wollen, brauchen Sie zusätzliche Hilfe.
Der Passwort-Manager Keepass-X, der in gängigen Distributionen in den Paketquellen liegt (Debian/Ubuntu/Mint: sudo apt-get install keepassx) arbeitet als lokale Software und öffnet die maßgebliche KBDX-Datenbankdatei nach Eingabe des Keepass-Masterpassworts. Eine Synchronisierung der KBDX-Datei über mehrerer Rechner ist leider nicht vorgesehen, lässt sich aber über einen Trick erreichen, etwa über den lokalen Synchronisierungs-Ordner von Dropbox. Dann genügt es, Keepass-X mit der aktuellen KBD-Datei über den Aufruf

keepassx ~/Dropbox/[name].kbdx

zu laden. Dieser direkte Aufruf der Datenbankdatei funktioniert auch unter Windows.
Wer selbst einen Server besitzt, kommt ohne Cloud-Dienst aus und kann mit einem simplen Bash-Wrapper wie

cd ~
curl -O ftp://server.de/ordner/[name].kbdx --user 
  ftpuser:ftpkennwort
keepassx ~/[name].kbdx
curl -T [name].kbdx ftp://server.de/ordner 
  /[name].kbdx --user ftpuser:ftpkennwort

dafür sorgen, dass Keepass immer die aktuelle Datenbank nutzt und Änderungen wieder auf den Server zurückschreibt. Die KBDX-Datei ist per se verschlüsselt und kann ohne weiteren Schutz auf jedem Server liegen.

Verschlüsselte Keepass-Datenbank: Ohne Kenntnis des Datenbank-Kennworts bleibt der Keepass-Safe verschlossen. Die KBDX-Datei liegt daher auch auf öffentlichen Servern sicher.

9. Server: Homepage – öffentlich statt privat?

Eine Homepage kann neben öffentlichen Aufgaben auch dazu dienen, wichtige Downloads oder Infos bereitzustellen, die Sie überall erreichen wollen. Dabei sollten Sie aber sichergehen, dass nicht öffentlich wird, was Sie für den privaten Bedarf bevorraten. Google und andere Suchmaschinen durchsuchen praktisch alle verbreiteten Text-, Tabellen-, Präsentationsformate, selbst PDF- und Postscript-Dateien. Dies führt dazu, dass Suchmaschinen eventuell weltweit Inhalte präsentieren, die Sie für sich persönlich hochgeladen haben. Lediglich Zip-, Rar-, 7-Zip oder Tar-Archive sind den Bots zu mühsam. Packen ist also eine Methode, um die Crawler von Privatinhalten fernzuhalten. Eine weitere, noch einfachere Lösung ist ein „Disallow“ in der robots.txt. Diese Datei im Hauptverzeichnis Ihrer Site kann die Suchmaschinen von bestimmten Verzeichnissen fernhalten:

User-agent: *
Disallow: /Downloads/

Auch der Ausschluss von bestimmten Dateitypen ist möglich:

Disallow: /*.doc$

Für mehrere Anweisungen benötigen Sie je eine eigene „Disallow“-Zeile. Beachten Sie aber, dass sich die Suchmaschinen zwar an die robots.txt halten, dazu aber nicht verpflichtet sind. Packen ist letztlich sicherer.

10. Server: Homepage ohne Dateiauflistung

Ohne spezielle Vorkehrungen ist theoretisch jede Datei im Web von jedem Browser aus zu erreichen, wenn der URL-Pfad und der Dateiname bekannt oder zu erraten sind. Die Situation verschärft sich, wenn Sie für Verzeichnisse eine index.php oder index.html verwenden, die den Inhalt des Verzeichnisses auflistet. Der für Websites meist verantwortliche Apache-Server kann sogar so eingestellt sein, dass er Verzeichnislisten automatisch anbietet, ohne dass dafür eine Index-Datei notwendig wäre („/etc/apache2/apache2.conf“ und Einstellung „Options Indexes FollowSymLinks“). Hier genügt es in jedem Browser weltweit, den Verzeichnisnamen zu erraten („downloads“, „uploads“), um den Inhalt anzuzeigen und herunterzuladen. Standardmäßig schalten die Web-Hoster diese Einstellung allerdings ab.

Ungewöhnlich benannte Verzeichnisse oder PHP- und HTML-Datei erschweren das Erraten von privaten Daten. Allerdings gibt es spezialisierte Tools wie Dirbuster, die öffentliche Webserver hartnäckig nach Verzeichnisnamen durchkämmen, die in einer Wörterbuchdatei definiert sind. Deutlich sicherer ist es, den Zugriff mit einer htaccess-Datei zu beschränken. Das müssen Sie nicht manuell, sondern können es über das Kundencenter des Hosters erledigen. So bieten etwa Strato oder 1&1 einen „Verzeichnisschutz“, wo Sie nur einen Benutzer mit Kennwort anlegen müssen, danach das gewünschte Verzeichnis schützen und drittens dem vorher angelegten Benutzer eine Freigabe für das Verzeichnis erteilen.

Homepage als Cloud: Sorgen Sie dafür, dass nicht öffentlich wird, was als private Ablage gedacht ist. Der Schutz via htaccess ist am einfachsten über das Kundencenter des Hosters zu aktivieren.

11. Server: Portfreigabe ohne Fremdhilfe

Wie Sie einen Web-, FTP- oder SSH-Server im heimischen Netzwerk für das Internet freigeben, ist im Kasten „Internet-Grundlagen“ beschrieben. Wie dort skizziert, ist das Problem der wechselnden WAN-IP durch die tägliche Zwangstrennung auch ohne Hilfe durch Dyndns-Anbieter wie www.noip.com zu lösen. Die Zutatenliste hierfür ist keine große technische Herausforderung. Im Wesentlichen geht es nur darum, dass Sie Ihre aktuelle WAN-IP zuverlässig irgendwo im Internet vorfinden. Damit und mit der Portnummer, die Sie im Router freigegeben haben, kommen Sie dann von außen an den Home-Server. Im einfachsten Fall erkundigt sich ein Rechner im Heimnetz einmal täglich bei einem Web-Dienst nach der WAN-IP und schreibt sie in eine Textdatei:

curl ifconfig.co > wan-ip.txt

Diese Textdatei kopieren Sie dann etwa in den lokalen Synchronisierungsordner der Dropbox, wonach sie umgehend im Internet erreichbar ist. Oder Sie kopieren sie mit

curl -O ftp://meinserver.de/ordner/wan-ip.txt  
  --user [user]:[ftpkennwort]

auf einen FTP-Server im Web.
Wenn Sie eine Webseite besitzen oder einen Bekannten, der Ihnen dort Zugriff und ein paar Kilobyte einräumt, dann geht es auch ganz ohne Cloud und Web-Dienste:
1. Die Abfrage der WAN-IP muss aus dem heimischen Netz erfolgen. Am besten erledigt das der Server, dessen Dienste Sie freigeben wollen, mit einem Cronjob (nach crontab -e):

0 8 * * * wget --user=sepp --password=G3H3IM 
   http://server.de/ip/wan-ip.php

2. Das täglich um acht Uhr mit wget angestoßene PHP-Script liegt auf Ihrer oder Ihres Bekannten Website und enthält im Minimalfall folgende Zeilen:

Der Webserver ermittelt die WAN-IP Ihres Heimnetzes, da die Anfrage von dort kommt, und legt sie als TXT-Datei am Server ab – im gleichen Verzeichnis, wo auch das Script liegt. Somit können Sie die IP weltweit abgreifen und damit Ihr Heimnetz betreten.
Beachten Sie bei einer frei gewählten Nummer für die Portfreigabe (siehe „Internet-Grundlagen“), dass Sie beim Fernzugriff unbedingt auch den Port angeben müssen. Einen Apache-Webserver erreichen Sie dann etwa mit der Adresse http://[WAN-IP]:[Port] oder gegebenenfalls mit zusätzlicher Angabe des Verzeichnisses (etwa http://[WAN-IP]:[Port]/dokuwiki).

Portfreigabe und Adresse: Das im Router fürs Web freigebenene Wiki ist über die WAN-IP erreichbar. Die zusätzliche Port-Angabe ist erforderlich, weil der freigebenene Port auf 11080 gelegt wurde.

13. Server: Datentransfer über SSH (SFTP)

Ein über das Internet mit SSH zugänglicher Server bietet nicht nur Fernwartung im Terminal, sondern auch direkten Dateitransfer. Der verläuft verschlüsselt und ist somit sicherer FTP. Auf der Kommandozeile gibt es die Befehle scp (Secure Copy) und sftp (Secure File Transfer Protocol):

scp test.txt sepp@[WAN-IP]:~/sftp sepp@[WAN-IP]

Portfreigaben mit abweichender Portnummer (Standard ist 22) können Sie beiden Tools dem Parameter „-P“ mitteilen.

Weit komfortabler ist der Einsatz grafischer Dateimanager. Nautilus & Co. verstehen URLs wie ssh://[WAN-IP]:[Port] in der Adresszeile (die Adresszeile lässt sich mit Strg-L einblenden). Selbst unter Windows gibt es einen bequemen Zugriff: Filezilla beherrscht neben FTP auch SFTP: Sie können daher einen freigegebenen SSH-Server mit der WAN-IP, seinen Authentifizierungsdaten („Verbindungsart: Normal“) und SFTP-Protokoll in den Servermanager eintragen und sich verbinden.

Achtung: SFTP hat ein historisches Problem, das nach erfolgreicher Anmeldung zu Zeitüberschreitungsfehlern führt. Relativ einfache Abhilfe schafft eine Korrektur der Datei /etc/ssh/sshd_config auf dem SSH-Server. Ersetzen Sie dort

Subsystem sftp /usr/lib/openssh/sftp-server

durch „Subsystem sftp internal-sftp“ und starten Sie den SSH-Dienst mit sudo service ssh restart neu.

Via Internet am SSH-Server: Mit den Linux-Dateimanagern Nautilus & Co. gelingt der Datenaustausch problemlos und komfortabel. Unter Windows kann Filezilla aushelfen.

13. Server: Benutzer bei SSH ausschließen

Standardmäßig kann sich jeder Benutzer, der ein Konto auf einem Linux-Server hat, per SSH mit Kontonamen und Passwort anmelden. Im lokalen Heimnetz ist das meist in Ordnung, bei öffentlich erreichbaren Servern nicht. Der Benutzer root beispielsweise sollte sich nicht anmelden können, denn hier ist von den beiden Zugangshürden (Benutzer plus Kennwort) schon mal eine bekannt. Wenn ein Angreifer das root-Passwort durch eine Wörterbuchattacke errät, ist das System kompromittiert. Um root und andere Benutzer von SSH auszuschließen, ist eine Anpassung der Konfigurationsdatei /etc/ssh/sshd_config nötig. Tragen Sie die Zeile

 PermitRootLogin no

an einer beliebigen Position ein, um einen root-Login zu verbieten. Wichtige Voraussetzung für diese Maßnahme ist, dass sudo für einen oder mehrere Benutzer eingerichtet ist, damit man sich als Admin nicht selbst über das Netzwerk aussperrt. Weitere Benutzer schließen Sie durch die Zeile

DenyUsers [Benutzer1] [Benutzer2]

aus, wobei die Platzhalter [Benutzer] durch die tatsächlichen Namen der Benutzerkonten ersetzt werden. Die Einstellung wird nach

sudo service ssh restart

aktiv.

Stromsparen am PC und Notebook

Strom sparen hilft gleich dreimal und ist damit ein Sport, der eigentlich jeden motivieren sollte: Das Notebook läuft länger. Die Stromrechnung wird niedriger. Und die Umwelt dankt es, wenn alle mitmachen.

1. Rechnen Sie selbst: Watt und Euro

Die üblichen Watt-Angaben für elektronische Geräte sind für normale Verbraucher nichtssagend. Was hilft die Info, dass ein Notebook 40 bis 60, ein Netbook etwa 20, ein Büro-PC 140, ein 32-Zoll-TV 50, WLAN-Router oder NAS-Gerät etwa 15 Watt verbrauchen?

Wenn Sie wissen wollen, welchen Jahresverbrauch diese Werte bedeuten, hilft folgende Formel: [Watt-Angabe]/1000*24*365*0,25

Hier ist ein Kilowatt-Preis von 25 Cent angenommen. Ein permanent laufender Büro-PC mit 140 Watt (d. i. pro Stunde) schlägt also im Jahr mit 306,60 Euro zu Buche.

2. Zeitschaltuhr und Steckerleisten

Kompromissloses Abschalten hilft bekanntlich. Jedoch sollte der Komfort nicht leiden und jedes Gerät bei Bedarf schnell nutzbar sein. Überlegen Sie den Einsatz folgender Hilfsmittel:

Steckerleiste mit Schalter: Damit trennen Sie mit einem Knopfdruck alle angeschlossenen Geräte vom Netz. Auch Router und Modem müssen nachts nicht durchlaufen – es sei denn, das Telefon-Festnetz hängt am Modem und ist nachts  unentbehrlich. PCs müssen vorher heruntergefahren werden!

Zeitschaltuhr: Einfache Zeitschaltuhren in Form von Zwischensteckern kosten nur vier bis 10 Euro, Steckerleisten mit Zeitschaltuhr zwischen 10 und 80 Euro. Für PCs, Notebooks, NAS-Speicher, externe Festplatten sind Zeitschaltungen meist zu unflexibel: Wenn Sie ausnahmsweise länger als gewohnt arbeiten und die Uhr den Strom abdreht, ist Datenverlust vorprogrammiert.

Master-Slave-Leiste: Solche Steckdosenleisten ab 15 Euro schalten automatisch alle Geräte an den Slave-Anschlüssen ab, sobald am Master-Anschluss kein Strom mehr fließt – also etwa der PC abgeschaltet wird. Die geringe Rest-Spannung bei ACPI-Sparmodi (Advanced Configuration and Power Interface) wie „Energie sparen“ oder „Ruhezustand“ schaltet die Slave-Geräte ebenfalls ab.

Master-Slave-Steckerleiste
Master-Slave-Steckdose: Solche Leisten schalten alle Geräte an den Slave-Dosen ab, wenn das Gerät (PC) der roten Master-Dose heruntergefahren wird.

3. Energieverwaltung auf PC, Notebook, Router

Moderne Hardware und Betriebssysteme halten vielseitige Sparmodi parat, die den Verbrauch des ganzen System oder einzelner Komponenten senken.

Windows und insbesondere die aktuellen Versionen 7 und 8 bieten auf PCs und Notebooks mit ACPI-Standard differenzierte Spareinstellungen. Klicken Sie in der Systemsteuerung auf „Energieoptionen“ und beim aktiven Energiesparplan auf „Energiesparplaneinstellungen ändern“. Je kürzer Sie die Zeitintervalle definieren, desto schneller greifen Helligkeitsanpassung oder Bildschirmausschaltung. Unter „Erweiterte Einstellungen“ schalten Sie Festplatten nach wenigen Minuten aus. Unter „Systemsteuerung –> Anpassung –> Bildschirmschoner“ sollten Sie „Leer“ (also schwarz) wählen und am Notebook eine sehr kurze Wartezeit einstellen.

Energieoptionen Windows 7 und 8
Energieoptionen nutzen: Mit differenzierten Einstellungen sind Windows 7 und 8 aktuell die ökologischste Betriebssysteme.

Router und NAS besitzen automatische Optionen, die den Stromverbrauch reduzieren. NAS-Geräte schalten nach einer definierten Idle-Zeit die Festplatten (siehe „Energieverwaltung“), die Fritzbox hat eine Nachtschaltung („Einstellungen, Erweiterte Einstellungen, System, Nachtschaltung“), mit der Sie für die eingegebene Zeitspanne den WLAN-Sender (Hauptverbraucher) abschalten.

Energieverwaltung in einem NAS-Netzwerkspeicher
Energieverwaltung in einem NAS-Netzwerkspeicher

4. Manueller Energiesparmodus

Vor der Mittagspause oder vor einem Meeting schalten Sie das Arbeitsgerät am besten in einen Energiesparzustand. Je einfacher das geht, desto nachhaltiger ist der Gewöhnungseffekt.

Die komfortabelste Maßnahme unter Windows ist das „Energie sparen“. Das schreibt den Inhalt der aktuellen Sitzung in den Speicher, schaltet die komplette Hardware ab und versorgt nur noch den Arbeitsspeicher mit Strom. Der Verbrauch sinkt auf zwei bis drei Watt. Nach Tastendruck ist die Sitzung mit allen Programmen in wenigen Sekunden wieder verfügbar.

Notebook- und einige PC-Tastaturen haben eine extra Sleep Mode-Taste mit Mond-Symbol. Wenn Ihnen diese fehlt, sollten Sie den Sleep Mode prominent im Startmenü eintragen. Dazu klicken Sie mit rechter Maustaste auf den Startknopf, wählen „Eigenschaften“ und ferner die Registerkarte „Startmenü“. Hier tragen Sie neben „Standardaktion für Beenden“ die Option „Energie sparen“ ein.

5. Stromspartipps für PC-Hardware

Wenn Sie Kaufentscheidungen energiebewusst treffen wollen, gibt es einige Grundregeln für die Wahl der Hardware.

Multifunktionsgeräte sind naturgemäß sparsamer als Einzelgeräte: Eine Drucker-Scanner-Kopierer-Fax-Kombi verbraucht deutlich weniger Strom als zwei oder drei Einzelgeräte. Ein gutes Smartphone ersetzt Handy, Kamera und MP3-Player.

Monitore und TV-Geräte verbrauchen umso mehr Strom, je größer die Bildfläche ausfällt. Ein 32-Zoll-LCD-TV benötigt etwa 40 Watt, einer mit 40 Zoll bereits das Doppelte. Ein weiterer entscheidender Faktor ist die Helligkeit: Bei Inaktivität sollte sich das Display möglichst schnell verdunkeln – das können Sie am Notebook über die Windows-Energieoptionen steuern. Alte Röhrenmonitore sind Stromfresser: Der Ersatz durch einen LCD-Monitor amortisiert sich nach wenigen Betriebsjahren.

PC-Komponenten: Am sparsamsten arbeitet eine Hauptplatine, die alle wesentlichen Komponenten enthält – Grafikchip, WLAN, LAN, USB, Sound. 2,5-Zoll-Festplatten sind sparsamer als 3,5-Zoll-Platten, Platten mit großer Kapazität sparsamer als mehrere kleine. Beim Netzteil sparen Sie kaum Strom, wenn Sie eines mit geringer Ausgangsleistung wählen. Eine Nennleistung von 600 Watt bedeutet nämlich keineswegs 600 Watt im Mittel, sondern nur den absoluten Spitzenwert.

Datenserver: Wenn Sie einen zentralen Server im Dauerbetrieb benötigen, ist ein Netbook mit USB-Platte oder ein NAS-Gerät zu empfehlen. Gegenüber einem PC spart das kleine Gerät knapp 200 Euro Stromkosten im Jahr.

6. Grenzwertiges Öko-Tuning

Eine Reihe weiterer Sparmaßnahmen sind technisch möglich, aber nur bedingt zu empfehlen. Sie sind marginal oder gehen auf Kosten von Stabilität oder Bedienkomfort.

Betriebssytem-Optik: Egal ob Mac, Windows, Linux – durch Abschalten visueller Effekte lässt sich der Stromverbrauch natürlich reduzieren. Aber es ist heute einem Windows-Anwender kaum noch zuzumuten, etwa das Aero-Design zu deaktivieren.

Komponenten-Tuning: Der Stromverbrauch einiger PC-Komponenten lässt sich im Geräte-Manager („Systemsteuerung –> Geräte-Manager“) genauer steuern. Sie finden etwa bei vielen WLAN-Adaptern unter „Eigenschaften –> Erweitert“ einen Mindeststromverbrauch“ sowie „Ausgangsleistung“. Bei anderen Komponenten wie dem LAN-Adapter finden Sie „Energieverwaltung“ die Option, dass der „Computer … das Gerät ausschalten“ im Sleep Modus ausschalten darf.

Untertakten und Undervolting: Manche Bios-Varianten bieten nach wie vor die Möglichkeit, den Prozessortakt manuell herabzusetzen. Das ist auf jüngeren ACPI-konformen PCs nicht sinnvoll, weil dies bei geringer Last automatisch geschieht. Fragwürdig ist auch das Undervolting mit externen Tools wie mit der englischsprachigen Freeware Rightmark CPU Clock Utility. Undervolting senkt die Stromspannung bei unveränderter CPU-Leistung. Unter Volllast sind sporadische Abstürze nicht auszuschließen.

So funktioniert ein PC (Mainboard & Co.)

PCs sind hochkomplexe, multifunktionale Werkzeuge. Die fundamentalen Bauteile und ihre Zusammenarbeit zu verstehen, erfordert aber kein Informatik-Studium. Die folgenden Zeilen und Bilder komprimieren das Wesentlichste.

1. CPU, Speicher und Peripheriegeräte

Der Computer im engeren Sinn besteht nur aus zwei fundamentalen Komponenten – dem Prozessor (CPU = Central Processing Unit, Zentraleinheit) und dem Arbeitsspeicher (RAM, Random Access Memory).

Der Prozessor: Alles was am PC geschieht, muss über die CPU in den Speicher und kann dort von der CPU gelesen, geändert, bearbeitet werden. Das ist stark vereinfacht – denn dabei lassen wir die gesonderte GPU (Graphics Processing Unit) zur Bildschirmausgabe ebenso außen vor wie DMA (Direct Memory Access), also den direkten Speicherzugriff ohne Vermittlung durch die CPU.

Um die CPU mit Aufgaben zu füttern, sind exakte Anweisungen erforderlich – Software im weitesten Sinne. Der Befehlssatz eines Prozessors, also die Maschinensprache, ist trotz jüngerer Befehlssatz-Erweiterungen (MMX, SSE) überschaubar, zumal von den 200 bis 300 Befehlen nur etwa 20 intensiv genutzt werden: Da werden etwa Inhalte von einer Speicheradresse in eine andere verschoben, Zahlen addiert, dividiert oder verglichen oder Variablen via Interrupt-Aufruf auf Festplatte geschrieben. Die der Maschinensprache nahe Assemblersprache ist trotz des geringen Befehlsumfangs schwer zugänglich und benötigt für winzige Aktionen schnell Hunderte von Codezeilen. Sie findet praktisch nur dort Verwendung, wo Geräte-Hersteller für spezialisierte Prozessoren mit optimiertem Code jede unnötige Last vermeiden müssen.

Software für den PC entsteht fast immer unter wesentlich zugänglicheren Hochsprachen wie C oder Java, deren Compiler den Code am Ende in Maschinensprache umwandelt. Diese Compiler erzielen zwar nicht die Qualität eines Assemblercodes, arbeiten aber ebenfalls hocheffizient. Selbst das Basissystem des PCs, das Bios (Basic Input Output System), muss seit der Umstellung auf EFI (Extensible Firmware Interface) nicht mehr in Assembler geschrieben werden.

CPU, Prozessor
CPU unter geöffneter Verriegelung: Die CPU ist verglichen mit ihrer Bedeutung eine unscheinbare Komponente.

Der Arbeitsspeicher: Wie viel RAM eine CPU direkt, also ohne spezielle Erweiterungstechniken nutzen kann, hängt von der Architektur ab: 32-Bit-CPUs adressieren theoretisch bis zu vier GB RAM: 2 hoch 32 ergibt 4.294.967.296 Bytes. Diese 4-GB-Grenze ist inzwischen ein echtes Limit, weil viele Mainboards in PCs und Notebooks nicht nur mehr Speicher aufnehmen können, sondern oft schon standardmäßig mit 6 und 8 GB ausgeliefert werden. Allerdings sind 64-Bit-Prozessoren seit mehr als 10 Jahren Standard: Sie können theoretisch 2 hoch 64 Bytes adressieren, sind aber aktuell oft auf 35 oder 36 Adressleitungen gedrosselt, was dann ein Speicherlimit von 32 oder 64 GB bedeutet. Neben den RAM-Limits der CPU und des Mainboards muss vor allem auch 64-Bit-Systemsoftware zum Einsatz kommen: Die Speicheradressierung der CPU über 4 GB hinaus setzt 64-Bit-Windows oder –Linux voraus, was aber ebenfalls zunehmend Standard wird.

3D-Bios
3D-Bios: Dies lässt den schlichten Textmodus eines alten Assembler-Bios deutlich hinter sich. Fragt sich allerdings, ob das Bios wirklich zum Mausklicken einladen soll.
4-GB-Limit
Verschenkter Speicher: Die 64-Bit-CPU könnte die 8 GB RAM adressieren, aber das 32-Bit-Betriebssystem verhindert dies. CPU und System müssen 64-bittig sein, um die 4-GB-Grenze zu überwinden.

2. Peripherie, Bussysteme und Interrupts

Ohne Verbindung zur Außenwelt könnte die CPU weder Befehle in Form von Software entgegennehmen noch Resultate weitergeben. Alle Geräte zur Eingabe von Software oder von Daten sowie zur Ausgabe der Ergebnisse gelten als „Peripherie“:

Peripheriegeräte und Bussysteme: Typische und eindeutige Eingabe-Peripherie sind Geräte wie Tastatur, Maus, Lochkarte oder Mikrofon, während Lautsprecher, klassische Drucker und Monitore zur Datenausgabe dienen. Multifunktionsdrucker und Touchscreen können beide Rollen übernehmen, ebenso wie Laufwerke oder Netzadapter. Die Übertragung von und zur Peripherie läuft über einen Datenbus, und die wichtigsten Bussysteme im PC sind AGP, PCI, PCI-Express für Erweiterungskarten, IDE, SCSI, (S)ATA für Laufwerke, ferner USB für externe Erweiterungsadapter und Laufwerke sowie Ethernet und WLAN für Netzverbindungen. Die Vielfalt der Bussysteme ist Folge der Tatsache, dass die CPUs immer schneller werden und die Bussysteme folgen müssen, um nicht das System auszubremsen. Der Datenweg aller dieser Bussysteme führt über den Chipsatz des Mainboards direkt zur CPU beziehungsweise umgekehrt.

Interrupts: Bislang ist nicht deutlich geworden, wie eine vielbeschäftigte CPU davon erfährt, dass sich da draußen gerade die Maus bewegt hat oder ein Datenpaket des Netzadapters angekommen ist. Dazu muss es eine Möglichkeit geben, den Prozessor zu unterbrechen und auf das Ereignis aufmerksam zu machen. Das geschieht durch definierte Unterbrechungsleitungen mit einem Interrupt-Request (IRQ). Da es eine Vielzahl von Peripherie-Geräten gibt, die IRQs senden, die CPU selbst aber nur einen Eingang dafür hat, ist – meist im Chipsatz des Mainboards – der PIC oder APIC (Advanced Programmable Interrupt Controller) zwischengeschaltet. Der bietet dann immerhin 16 Interrupt-Leitungen. Das ist auch nicht viel, und die Interrupt-Verwaltung war lange Zeit ein ernstes Problemfeld, weil zwei Geräte auf derselben Interrupt-Leitung beide Geräte ganz oder teilweise außer Gefecht setzen. Aber nach dem Aussterben technisch „dummer“ ISA-Steckkarten gelingt modernen Betriebssystemen mittlerweile das IRQ-Sharing problemlos, also das Teilen einer Leitung: Interrupt-Konflikte sind Geschichte, Plug & Play funktioniert praktisch reibungslos.

Damit das System aus Benutzersicht optimal funktioniert und reagiert, wertet der Interrupt Controller die IRQ nach Priorität: Benutzereingaben durch Maus oder Tastatur erhalten höhere Priorität als Festplatten- oder Netzwerk-Anfragen. Nur bei extremer Überlastung werden Sie beobachten, dass der Mauszeiger der Bewegung des Zeigegeräts nicht mehr folgt.

3. Mainboard und Basiskomponenten

Mainboards, Motherboards oder – deutsch – Hauptplatinen bilden das unübersehbare Zentrum eines PCs, sobald Sie dessen Gehäuse öffnen. Wichtige Anschluss-Ports des Mainboards sind auch bei geschlossenem Gehäuse überwiegend an der Rückwand, zum Teil auch an der Frontseite zugänglich. Erweiterungskarten wie Grafikkarten oder Soundkarten, zusätzliche Festplatten oder optische Laufwerke können Sie aber nur bei offenem Gehäuse und direktem Zugriff auf das Mainboard nachrüsten. Die Abbildung zeigt und kennzeichnet die wesentlichen Bauteile eines Mainboards:

Mainboard Beziffert

1. Der Bios-Chip: Das Basic Input Output System (oder die EFI Firmware) ist die primäre Software und als kleiner Chip auf dem Mainboard (1). Es initialisiert und konfiguriert dessen Hardware-Komponenten. Damit die Einstellungen Neustarts überdauern und die Systemzeit aktuell bleibt, wird ein kleiner Speicherbaustein mit einer eigenen Batterie (1a) versorgt. Beim Einschalten prüft das Bios die Mainboard-Hardware und die angeschlossenen Peripherie-Geräte und kann über den Bootsektor des primären Laufwerks den Start des eigentlichen Betriebssystems initiieren.

2. CPU-Sockel (mit CPU und Lüfter): Die CPU ist auf dem sogenannten Sockel (2) mit Hilfe eines einrastbaren Metallbügels fixiert. Von den vergleichsweise kleinen Bauteilen Sockel und CPU ist beim Blick auf ein komplett bestücktes Mainboard in der Regel nichts zu sehen, weil diese der große CPU-Lüfter verdeckt. Beim Austausch der CPU müssen Sie diese unbedingt passend zum Mainboard-Sockel wählen: Aktuelle Sockel für Intel-CPU haben Bezeichnungen wie 1155 oder 1366, für AMD-CPUs AM3 oder AM3+.

3. Speicherbänke: Die zwei, oft vier, seltener sechs Slots für RAM-Module (3) können nur die von der Slotbauweise und vom Chipsatz vorgegebene RAM-Riegel aufnehmen. Die Speicherriegel, heute meist DDR, DDR2 und DDR3 (DDR=Double Data Rate), haben je nach Typ eine Kerbe an unterschiedlicher Stelle, so dass der Einbau falscher Module physisch ausgeschlossen ist. Trotzdem müssen Sie beim Nachkauf von RAM darauf achten, dass die Module idealerweise dieselbe Taktrate besitzen, wie sie der Chipsatz des Mainboards vorgibt. Schnellere Module sind kein ernstes Problem, sie arbeiten dann aber langsamer als sie technisch könnten. Die Taktrate des Motherboards ist am einfachsten im Bios-Setup zu ermitteln, umständlicher auch im Handbuch des Motherboards.

4. Erweiterungssteckplätze: Trotz umfassender Ausstattung aktueller Mainboards mit allen wichtigen Komponenten, sind Hauptplatinen offen für Aufrüstmaßnahmen. Typischerweise finden sich auf dem Board mehrere PCI-Slots (4) und an erster Stelle und zur Mitte versetzt ein PCI-Express-Slot (4a) für die Grafikkarte. Bei neuesten Mainboards überwiegen zahlenmäßig bereits die längeren PCI-Express-Slots.

Auf älteren Boards gibt neben den PCI-Slots an erster Stelle und zur Mitte versetzt den AGP-Slot für die Grafikkarte. AGP (Accelerated Graphics Port) war einige Jahre um die Jahrtausendwende eine Zwischenlösung mit dem Ziel, damals teureres RAM für die Grafikkarte einzusparen, indem AGP notfalls den Arbeitsspeicher des PCs nutzen konnte.

Sehr alte Boards bieten am unteren Ende nach den PCI-Steckplätzen noch die auffällig langen ISA-Steckplätze. Diese sind längst im Aussterben begriffen.

Das Aussterben von ISA und AGP verurteilt manche hochwertige Erweiterungskarte zu Sondermüll, weil neuere Mainboards dafür keine Verwendung mehr haben. Umgekehrt passen in alte Mainboards keine modernen Komponenten. Lediglich der PCI-Bus (Peripheral Component Interconnect) hat mittlerweile fast zwei Jahrzehnte überdauert und wird nur dort, wo maximaler Durchsatz gewünscht ist (Grafikkarte), durch die Weiterentwicklung PCI-Express (PCIe) ersetzt.

5. Chipsatz mit Northbridge und Southbridge: Der Chipsatz des Mainboards besteht traditionell aus zwei Chips – der Northbridge und Southbridge (5). Die Northbridge befindet sich in unmittelbarer Nähe der CPU, die Southbridge nahe den Erweiterungssteckplätzen. Der Chipsatz übernimmt den Datenverkehr zwischen Peripheriegeräten und CPU, definiert wichtige Board-Eigenschaften wie CPU-Cache oder RAM-Obergrenze und bietet Onboard-Komponenten wie Ethernet und Sound. Auf manchen neueren Boards besteht der „Chipsatz“ nur noch aus einem Chip, der Southbridge. Die Funktionen der Northbridge übernimmt dort direkt eine entsprechend ausgestattete CPU. In der nebenstehenden Mainboard-Abbildung fehlt die Northbridge, die ihren Platz zwischen CPU-Sockel (2) und PCI-Slots (4a) hätte.

6. SATA-Anschlüsse: SATA (Serial Advanced Technology Attachment) ist der aktuelle Übertragungsstandard zwischen Laufwerken und dem Prozessor. Hier (6) schließen Sie Festplatten, SSDs und optische Laufwerke an. Standard ist mittlerweile die dritte SATA-Version, die theoretisch 600 MByte/s pro Sekunde übertragen kann. Die breiten, 40-Pin-Slots für ältere IDE/PATA-Festplatten (6a) sind auf neueren Boards oft nicht mehr vorhanden, Slot für Diskettenlaufwerke fehlen inzwischen auf allen Boards.

7. Anschlüsse für Peripherie: Gute PC-Mainboards sparen nicht mit Anschlüssen, die auf der Gehäuserückseite des Rechners zugänglich sind (7). Je nach Gehäuse finden sich auch auf der Frontseite Anschlüsse für USB, SD-Karte und Kopfhörer.

Die zusätzliche Abbildung der rückwärtige Peripherie-Ports zeigt ein Mainboard mit folgenden Anschlüssen von links nach rechts: PS/2-Port (für Maus oder Tastatur), darunter 2x USB 2.0, S/PDIF koaxial, darunter S/PDIF optisch (Audio-Schnittstellen), Bluetooth, 2x USB 2.0, eSATA, 2x USB 2.0, Ethernet-LAN, darunter 2x USB 2.0, Ethernet-LAN, darunter 2x USB 3.0, 6 Audio-Klinkenanschlüsse für 7.1-Surroundsystem.

8. Mainboard-Stromstecker: Der 20- oder 24-polige ATX-Stromanschluss (8) versorgt das Mainboard mit Strom. Der passende Stecker kommt vom ATX-Netzteil.

9. CPU-Stromstecker: Die CPU hat ihre eigene Stromversorgung. Der 8-polige, eventuell auch quadratisch-4-polige Stromanschluss für die CPU (9) befindet sich in der Nähe der CPU. Der passende Stecker kommt vom ATX-Netzteil.

10. Lüfter-Anschlüsse: Für CPU- und Gehäuselüfter gibt es meist 3- oder 4-polige Anschlüsse. Einmal angeschlossen, können Sie den Lüfter über das Bios oder sogar über das Betriebssystem regulieren. Die Stecker der jeweiligen Lüfter gehören in die mit „xxx_FAN“ gekennzeichneten Anschlüsse. Dabei sollte der CPU-Lüfter aufgrund seiner Steuerungsoptionen unbedingt an den vorgesehenen Anschluss „CPU_FAN“ (10); bei Lüftern ohne Steuerungsmöglichkeit spielt es keine Rolle, an welchem „xxx_FAN“-Anschluss sie hängen (SYS_FAN, PWR_FAN).

CPU-Fan, Lüfter
Anschluss für den CPU-Lüfter: Der per Software regelbare Lüfter sollte am vorgesehenen Ort angeschlossen werden.

11. Frontpanel: Das Frontpanel (11) ist für die LEDs und den Powerknopf an der Gehäusefront zuständig. Dazu müssen kleine, 2-polige Stecker des PC-Gehäuses in die passenden Pins gesteckt sein. Die Pin-Belegung am Mainboard ist oft nicht ausreichend beschriftet, so dass nur der Blick ins Mainboard-Handbuch hilft.

12. Interne USB-Anschlüsse: USB-Ports im Mainboard (12) ermöglichen den Anschluss von USB-Geräten an der Gehäusefront – soweit das PC-Gehäuse solches vorsieht. In diesem Fall muss der passende Stecker des Gehäuses mit dem internen Anschluss verbunden werden.

Peripherie-Anschluesse
Typisches Mainboard-Angebot an der Gehäuse-Rückseite: PC-Hauptplatinen geizen nicht mit Anschlussmöglichkeiten insbesondere für USB 2.0. und 3.0.

4. Mainboard und Onboard-Peripherie

Abgesehen von den genannten Standardbauteilen besitzen heutige Mainboards integrierte Peripherie-Komponenten, so dass Sie zusätzliche Steckkarten nur noch bei besonderen Qualitätsansprüchen benötigen:

Onboard-GPU: Ein Grafikchip ist häufig im Chipsatz (Northbridge) des Mainboards integriert. Diese GPUs (Graphics Processing Unit) sind völlig ausreichend für Büroanwendungen und die visuellen Effekten von Betriebssystem und Software. Lediglich 3D-Gamer brauchen in jedem Fall eine leistungsstarke Grafikkarte.

Onboard-Ethernet: Fast Ethernet (100 MBit), inzwischen meist Gigabit-Ethernet (1000 MBit) ist auf allen Mainboards Standard (13), zum Teil Bestandteil des Chipsatzes (Southbridge). Eine PCI-Netzwerkkarte ist daher nicht mehr nötig, manchmal aber zu empfehlen, weil hier bei Billig-Mainboards oft mangelhafte Qualität verbaut ist. Mainboards mit integriertem WLAN-Chip sind selten. Notebooks, die standardmäßig WLAN mitbringen, realisieren das mit einer Erweiterungskarte auf dem Mini-PCI-Steckplatz.

Onboard-Sound: Ebenfalls längst Standard (14), zum Teil im Chipsatz des Mainboards (Southbridge), ist ein Soundchip. Die meist befriedigende bis gute Qualität dieser Chips wird oft nur durch lausige Ausgabehardware (Lautsprecher) geschmälert. Dedizierte Soundkarten brauchen nur noch Enthusiasten, die Musik nicht nur hören, sondern auch bearbeiten wollen.

5. Das Mainboard ist (fast) der PC

Das Mainboard ist die maßgebliche Komponente eines PCs wie Sie anhand folgender Minimalausstattung ermessen können: Ein Rechner mit Mainboard ist nämlich theoretisch lauffähig, sobald

  • ein PC-Netzteil (meist ATX-Format) angeschlossen ist, das die Stromversorgung gewährleistet,
  • der CPU-Sockel mit einem Prozessor bestückt ist,
  • mindestens ein Speichermodul in einem der RAM-Steckplätze steckt.
Netzteil
Ohne Stromversorgung geht nichts: Mainboard, CPU sowie Laufwerke müssen mit dem Netzteil verbunden sein. PC-ATX-Netzteile leisten 300 bis 1500 Watt.

Damit kann immerhin das Bios oder die EFI-Firmware des Mainboards starten und dieses erlaubt dann per Bootmenü die Auswahl eines bootfähigen externen Datenträgers mit einem Betriebssystem. Sie sehen aber schon: Um etwas auszuwählen, ist mindestens ein angeschlossenes Eingabegerät wie eine Tastatur unerlässlich, ferner ein Monitor, um das gestartete System dann auch nutzen zu können. Außerdem setzt unsere Minimalkonfiguration voraus, dass ein Onboard-Grafikchip vorhanden ist. Im realen Betriebsalltag befindet sich im PC ferner mindestens ein Festspeicher in Form einer Festplatte oder SSD mit einem Betriebssystem, das nach dem Bios automatisch startet.

6. Verhältnis von Hardware und Software

Hardware wird immer kleiner, leiser und ausgereifter. Für den PC-Nutzer stehen zunehmend funktionsreiche Betriebssystem-Software und Anwendungsprogramme im Zentrum, und auftretende Probleme liegen überwiegend auf der dominanten Software-Ebene. Das kann Anwender zu dem Irrtum verleiten, alle Probleme auf Software-Ebene beheben zu wollen. Defekte Hardware ist aber durch Software nicht zu reparieren – einige Beispiele:

Wenn Sie Systemabstürze und Bluescreens beobachten, sollten Sie CPU- und Gehäuse-Lüfter, ferner die RAM-Bausteine prüfen.

Wenn das Netzwerk ständig stockt oder zusammenbricht, sollten Sie versuchsweise den Ethernet- oder WLAN-Adapter austauschen.

Wenn das Betriebssystem nicht mehr startet, sollten Sie vor einer Neuinstallation erst mal mit einem mobilen Linux-Live-System testen, ob nicht ein generelles Hardwareproblem vorliegt.

Deutlich harmloser als defekte Bauteile, im Ergebnis aber genauso fatal, sind fehlende oder fehlerhafte Gerätetreiber: Jede angeschlossene Hardware benötigt einen solchen Treiber als Vermittler-Software zum Betriebssystem. Unter Windows kontrollieren Sie im Geräte-Manager recht bequem, ob die angeschlossene Hardware komplett erkannt und ein Gerätetreiber installiert ist. Im Fehlerfall zeigen gelbe Ausrufezeichen oder die Angabe „Unbekanntes Gerät“, dass der Treiber fehlt. Sie können dann Windows suchen lassen oder selbst auf die Webseite des Geräteherstellers gehen. Die Basisaustattung an passenden Treibern finden Sie aber immer auch auf der Begleit-DVD Ihres Mainboards.

Hardware-Treiber
Chipsatz-Treiber auf der Mainboard-DVD: Die dem Board beiliegende DVD verdient einen sicheren Ort, bei häufiger System-Installation auch ein ISO-Image auf der Festplatte.

 

MBit/s: Breitband-Internet

Bandbreiten mit 30, 50, 100 und 200 MBit/s – früher nur im lokalen LAN denkbar – sind heute weder technisch noch finanziell eine Hürde. Die Fragen sind: Welche Bandbreite wollen Sie und was ist vor Ort verfügbar?

Die Währung: Was sind MBits?
Die entscheidende Währung der Internet-Provider ist MBit/s, Megabits pro Sekunde. Wenn bei Angeboten drei Nullen dranhängen wie etwa bei „DSL 16000“, dann sind das Bits pro Sekunde. Streichen Sie die Nullen weg, dann sind Sie wieder bei MBit/s (also 16). Und um von MBit/s eine anschauliche Datenmenge zu errechnen, teilen Sie grob durch 10: Bei 16 MBit/s kommen also etwa 1,6 MB pro Sekunde durch die Leitung, bei 50 MBit/s circa 5 MB pro Sekunde.

Wieviel MBit/s braucht man wofür?
Die folgenden Übertragungsraten, die den gängigen Providerangeboten entsprechen, geben Ihnen ein Orientierungsraster, was Sie für welche Ansprüche benötigen:
Mit 6 MBit/s funktionieren Mail, soziale Netzwerke und HTML-Darstellung noch flott, Video-Wiedergabe ist aber bereits bei mäßiger Qualität grenzwertig.
16 MBit/s garantieren schnelles Surfen, flotte Software-Downloads und – bereits grenzwertig – den Zugang zu IPTV und TV-Mediatheken.
25-32 MBit/s erlauben rasante Medien-Downloads (Audio, Film) und ruckelfreie Wiedergabe aller Medienangebote, grenzwertig bei hochauflösendem HD-Inhalten.
50-100 MBit/s ist die Bandbreite für Download-Junkies mit keinerlei Limits auf der Empfängerseite.
200 MBit/s und mehr sind Overkill für einen Einzelabnehmer, da kaum ein Web-Server diese Datenmenge an eine einzelne IP ausliefert – eine Leitung für Kleinunternehmen, Großfamilien und Personen, die schon heute absolut zukunftssicher surfen möchten.

Beachten Sie, dass alle Internetprovider in gewisser Weise „zocken“ und die zugesagten Bandbreiten nur mit dem Kalkül bereitstellen können, dass immer nur ein Bruchteil der Kunden Bandbreite benötigen. Im Allgemeinen können Sie davon ausgehen, dass dieses Zockerspiel umso dreister ausfällt, je höher die versprochene Bandbreite liegt.

Breitbandatlas
Der Breitbandatlas informiert über regional verfügbare Netze und Anbieter.

Was leisten die verschiedenen Techniken?
DSL (Digital Subscriber Line) nutzt vom grauen Kasten an der Straße (DSLAM) bis zum Kunden das Kupferkabel der Telefonleitung und ist mit 16 MBit/s am oberen Limit angelangt.
VDSL (Very High Speed Digital Subscriber Line) verwendet denselben Übertragungsweg, kann aber durch technische Optimierung theoretisch auf 52 MBit/s kommen. Größere Entfernungen zum DSLAM verringern den Durchsatz beträchtlich. Typische Provider-Angebote für VDSL reichen von 25 bis 50 MBit/s.
Internet via Fernsehkabel ist schneller als DSL und VDSL und überall dort mit geringem Aufwand erreichbar, wo bereits ein Kabelanschluss besteht. Die Angebote der größten Kabelprovider Unitymedia und Kabel Deutschland reichen derzeit von 16 bis 200 MBit/s. Das versprochene Maximum erhalten Sie aber nur im Einfamilienhaus, in Mehrfamilienhäusern müssen Sie sich diesen Datendurchsatz mit den anderen Haushalten teilen. Aktuell (Anfang 2016) rate ich allerdings von einem Vertrag mit Kabel Deutschland / Vodafone dringend ab, siehe Finger weg von Kabel Deutschland!.
Glasfaser direkt zum Endkunden (FTTH – Fibre to the Home) könnte theoretisch 1000 MBit/s übertragen, ist aber praktisch überall am Ende mit langsameren Kupferkabel kombiniert. Die Angebote nennen daher vergleichsweise bescheidene 25 bis 200 MBit/s. Glasfasernetze legen neben der Telekom diverse kleine, regionale Anbieter, sind aber in Deutschland nur sporadisch anzutreffen.
Das Funknetz UMTS erzielt theoretisch bis zu 21 MBit/s. Typische Angebote liegen bei 7 und 14 MBit/s. Neben der relativ geringen Geschwindigkeit müssen UMTS-Kunden mit einem relativ knappen Downloadlimit auskommen. Wer dieses überschreitet, wird im entsprechenden Monat auf magere 384 Kbit/s gedrosselt. UMTS bleibt ein Notnagel, wo sonst nichts geht.
Das Funknetz LTE (Long Term Evolution, UMTS-Nachfolger) liefert theoretisch bis zu 100 MBit/s. Die Angebote der Hauptprovider Telekom, Vodafone und O2 bewegen sich aber überwiegend zwischen 7 und 14 MBit/s. Und auch hier gibt es monatliche Downloadlimits zwischen 5 und 30 GB, deren Überschreitung die Leitung drosselt. 1 GB ist an einem Tag schnell erreicht, wenn Sie sich via Internet Videos ansehen. Beide Funknetze – UMTS und LTE – sind gemessen an den Leistungen relativ teuer.

MNET-Glasfaser
Nach genauer Adressangabe ist die Meldung des Anbieter meist zuverlässig.

Welche Netze gibt es bei mir?
Das herauszufinden, ist nicht ganz einfach. Simpelster Rat ist, positive Erfahrungen der unmittelbaren Nachbarn zu erfragen. Systematischere Wege, falls Sie Ihre Nachbarn nicht mögen (oder umgekehrt):
1. Suchen Sie auf www.zukunft-breitband.de unter „Breitbandatlas“ Ihre Region so präzise wie möglich, und sehen Sie nach, welche Technik und welcher Anbieter dort zur Auswahl stehen. Danach gehen Sie auf die Web-Seite des passenden Providers und machen auch dort eine Verfügbarkeitsprüfung für Ihre Adresse. Dies geht in der Regel einher mit genauer Angabe der Straße und Hausnummer und darf dann als relativ zuverlässig gelten.
2. Vor allem bei vorhandenem Kabelfernsehen und Interesse an Web via Kabel können Sie die Provider direkt ansteuern, da es mit Kabel Deutschland und Unitymedia nur zwei wesentliche Anbieter gibt. Die Verfügbarkeitsprüfung ist meistens zuverlässig.
Brauchen Sie Uploads?
Provider-Angebote nennen meist nur die Empfangsleistung, also die Download-Bandbreite. Das ist insofern berechtigt, als 99 Prozent der Endkunden nur Daten abholen wollen (HTML-Seiten, Medien-Streams, Datei-Downloads). Wer zu Hause einen FTP- oder Web-Server betreibt, will aber auch einen brauchbaren Upload. Der ist leider meist lausig:
Bei DSL sind es maximal 1 MBit/s, bei Kabel meist 1 bis 2,5 MBit/s (maximal 6). Deutlich besser sind hier VDSL-Tarife mit maximal 10 MBit/s und Glasfaser mit mindestens 25 MBit/s (bis zu 100 MBit/s). Die genaue Upload-Leistung müssen Sie oft mühsam den Detailangaben der Tarife entlocken, manchmal hilft gar nur direktes Nachfragen.

Verlustwege im lokalen Netz?
Wenn am Ende, nämlich bei Ihnen am Browser oder Smart TV, nicht das ankommt, was Sie bezahlen, kann es am Provider liegen. Der wird sich aber mit dem Hinweis auf das diplomatische „Bis zu XX.MBit/s“ herausreden – die Leistungsangaben der Hersteller beginnen regelmäßig mit „Bis zu…“.
Ein guter Teil des Datenstroms kann aber auch im lokalen Netz verlorengehen. Regelmäßig ist das zu erwarten, wenn die Daten im Haus per WLAN oder via Powerline verschickt werden. Besondere Sorgfalt ist geboten, wenn Sie sich eine Highend-Leitung mit 100 MBit/s ins WAN leisten, der die Geräte im heimischen LAN nicht gewachsen sind. WLAN-Router und Adapter an den Endgeräten müssen in diesem Fall unbedingt auf dem neuesten Stand sein.