Alle Beiträge von Hermann Apfelböck

True OS mit Datenschutz-Extra

True OS basiert auf Free BSD. Dieser Unix-Abkömmling hat viele Ähnlichkeiten mit Linux, aber auch signifikante Unterschiede. Zu den Besonderheiten von True OS zählen das Dateisystem ZFS und die portable Home-Verschlüsselung mit „PersonaCrypt“.

Auf http://distrowatch.com klopft in der letzten Zeit häufiger die Distribution True OS an die Top Ten. Ihre bisherige Top-Platzierung ist Platz 11, während sie bis vor ein, zwei Jahren noch unter „ferner liefen“ zu suchen war. Was ist dran an diesem System? Eine Frage, die ich an dieser Stelle gerne beantworte, zumal True OS ein schnelles Ausprobieren in einem Livesystem nicht vorsieht. Echtes Installieren ist unvermeidlich, um das System zu testen.

Download und Installation

Erste Informationen über True OS finden Sie auf der Projektseite: https://www.trueos.org/. Wer sich vorab detaillierter über die Hardware-Voraussetzungen und den Praxisalltag unter True OS informieren will, sollte einen Blick auf das Online-Handbuch https://www.trueos.org/handbook/trueos.html, das auch direkt über die Projektseite erreichbar ist. Aufgrund des Dateisystems ZFS sind für das an sich schlanke System etwa 4 GB RAM empfohlen, absolutes Minimum ist 1 GB.

Auf der Downloadseite https://www.trueos.org/downloads/ finden Sie Angebote aus dem Stable- und Unstable-Zweig (Stable empfohlen). Der Download des „Latest TrueOS Stable“ beträgt etwa 2,5 GB. Das ISO-Image schreiben Sie dann mit einem Tool Ihrer Wahl am besten auf eine DVD (Brasero unter Linux, Imgburn unter Windows). Eigentlich sollte auch ein USB-Stick als Installationsgerät funktionieren, jedoch war dies in unserem Fall weniger zuverlässig als das optische Medium.

Installer mit mäßiger Partitionierungshilfe: Die Einrichtung ist nichts für Anfänger. So fehlt etwa jeder Hinweis, dass eine MBR-Installation unter „Customize“ explizit eingestellt werden muss.

Wenn Sie den Zielrechner damit starten, erhalten Sie kein Livesystem, sondern einen reinen Installer. Neben der typischen Abfrage der Systemsprache geht es um die Entscheidung, ob eine grafische Oberfläche installiert und ein proprietärer Treiber für die Grafikkarte genutzt werden soll. Dann geht es zur Partitionierung: Wenn True OS die erste Festplatte „ada0“ nicht oder nicht in vollem Umfang übernehmen darf, ist der Klick auf „Customize Disk Settings“ erforderlich. Die Schaltfläche „Customize Disk Settings“ ist unbedingt auch dann notwendig, wenn True OS das alte MBR-Partitionierungsschema verwenden soll. Standardmäßig geht es von einer UEFI/GPT-Installation aus. Der hiermit gestartete „TrueOS Disk Wizard“ ist für Erfahrene akzeptabel, für Anfänger eher riskant. Wer Multiboot oder die umfassenden Pool- und RAID-Optionen von ZFS einrichten will, sollte unbedingt Erfahrung mitbringen und parallel das angesprochene Online-Handbuch benutzen.

Ersteinrichtung von True OS

Nach erfolgreicher Installation und dem ersten Start fordert das System ein Passwort für den Root-Zugang und danach ein erstes Benutzerkonto.

Die PersonaCrypt-Verschlüsselung: Schon bei Einrichtung des Erstkontos fällt die zweite Registerkarte „PersonaCrypt“ ins Auge, die auch später im „Usermanager“ für alle Benutzerkonten auftaucht. Es handelt sich um die optionale Verschlüsselung des jeweiligen Home-Verzeichnisses. Wie bei Linux-Systemen kann das Home-Verzeichnis geschützt werden, indem bei „Device“ die Option „On Disk Encryption (PEFS)“ gewählt wird. True OS kann aber an dieser Stelle mehr: Bei angeschlossenem USB-Datenträger wird dieser als „Device“ angezeigt und kann dann als Ziel für die verschlüsselten Dateien definiert werden. Das unter „PersonaCrypt“ eingegebene Passwort ist unabhängig vom Systempasswort, kann aber der Einfachheit halber auch identisch gewählt werden.

Im späteren Betrieb reagiert True OS auf PersonaCrypt-Konten wie folgt: Konten mit lokaler „On-Disk-Verschlüsselung“ werden am Anmeldebildschirm immer angezeigt, selbstverständlich auch alle Konten ohne jede Verschlüsselung. PersonaCrypt-Konten mit externen USB-Medien erscheinen jedoch nicht, sofern der Datenträger nicht angeschlossen ist. Mit anderen Worten: Die Anmeldung eines solchen Kontos ist nur möglich, wenn der Nutzer seinen Datenträger dabei hat und anschließt. Für die Anmeldung von PersonaCrypt-Konten sind immer zwei Kennwörter nötig – das Systempasswort und zusätzlich das Verschlüsselungspasswort.

Der Lumina-Desktop: Standardmäßig startet True OS seinen Stammdesktop Lumina. Diese Oberfläche ist keine Schönheit, orientiert sich aber mit Startmenü, Systemleiste und Rechtsklickmenü am Desktop weitgehend an geläufigen Standards. Über den Desktop-Rechtsklick und „Einstellungen -> Desktop Actions“ kann der Desktop als Ordner und Dateiablage genutzt werden. Wer es ganz minimalistisch haben will, kann am Anmeldebildschirm auch auf Fluxbox umstellen.

Das Software-Center: Die Software-Ausstattung ist standardmäßig ausreichend, aber eher spartanisch. Ihre Ausstattung ergänzen Sie recht komfortabel mit dem grafischen Paketmanager „AppCafe“. Ähnlich wie bei Ubuntu gibt es verschiedene Paketquellen, zwischen denen Sie über das Listenfeld in der Mitte wechseln. Stöbern Sie in den Kategorien oder suchen Sie gezielt nach Programmen. Viele der bekannten Linux-Klassiker wie Libre Office, VLC, Filezilla, MC oder Gimp sind auch in Versionen für True OS (Free BSD) zu bekommen. Auch alternative Desktops wie Mate oder XFCE sind verfügbar. Das „AppCafe“ bietet nicht den Umfang von Debian/Ubuntu-Distributionen, aber alles Wesentliche ist hier erhältlich.

Fazit: Viele Kompromisse

Das Hauptmotiv für True OS ist wohl nicht das mächtige Dateisystem ZFS mit vielen Server-relevanten Optionen für Festplattenpools und System-Snapshots. Vielmehr dürfte bestimmte Nutzer das ungewöhnliche „PersonaCrypt“ faszinieren: Die eigenen Daten sind unzugänglich, das maßgebliche Konto am Login-Bildschirm nicht einmal ersichtlich, solange der Nutzer nicht das passende USB-Gerät aus seiner Schublade holt und anschließt. Ob man solche Zwei-Geräte-Sicherheit als konsequente Datenschutzmaßnahme interpretieren oder doch überwiegend in der Ecke schmuddeliger Versteckspiele verorten will, überlassen wir dem Urteil des Lesers.

Deutlich ist, dass der Anwender für das eine oder andere interessante True-OS-Feature einige Kompromisse in Kauf nehmen muss: True OS kann weder beim Installer-Komfort noch bei der Hardware-Erkennung einem Debian/Ubuntu das Wasser reichen. Mit dem voreingestellten Lumina-Desktop gibt es dann eine allenfalls brauchbare Bedienoberfläche – selbst ein einfaches LXDE (auf Lubuntu oder Debian) kann da mindestens mithalten. Nebenbei ist das System kein Schnell-Booter und fordert, gemessen am grafischen Komfort, relativ viel Arbeitsspeicher (wegen ZFS).

Hier gibt es ein unverschlüsseltes Konto „hanna“ und ein verschlüsseltes Konto „klaus“, dessen Verschlüsselungsgerät vorliegt („Ready“). Die Anmeldung fordert zwei Kennwörter.

Zurück zur Linux-Übersichtsseite…

AppImages: Portable Software für Linux

Die traditionelle Paketverwaltung unter Linux hat fundamentale Vorzüge gegenüber dem Software-Wildwuchs à la Windows. Es ist aber andererseits auch unflexibel und wartungsaufwendig. Appimages sind eine willkommene Ergänzung.

Containerformate haben Konjunktur. Sie bieten Distributions-unabhängige Software, umgehen das Problem der Paketabhängigkeiten und erlauben den portablen Einsatz der Software. Gegenüber den technisch aufwendigeren Techniken Snap, Flatpak und Docker haben hier die Appimages einen entscheidenden Vorteil: Auf dem Zielrechner ist keinerlei Werkzeug erforderlich – keine Laufzeitumgebung, kein Paketwerkzeug. Die Images werden einfach heruntergeladen, ausführbar geschaltet und – laufen. Da Appimages keine Sandbox-Isolation (wie Docker & Co.) gegenüber dem übrigen System gewährleisten, wird der Einsatz allerdings zur Vertrauensfrage – ganz ähnlich zu Windows. Wer sich an die vertrauenswürdigen Quellen hält, hat jedoch eine überaus komfortable Technik an der Hand, seine Software-Ausstattung zu ergänzen oder gezielt auf den portablen Einsatz auszurichten.

Das Appimage-Format

Appimages gehen auf das schon 2004 geschaffene Format „klik“ zurück. Über dessen Folgeprojekt „Portable Linux Apps“ erhielt die Weiterentwicklung 2013 die Bezeichnung „Appimage“. Es gilt das Prinzip „1 app = 1 file“. Typischerweise hat diese eine Containerdatei die Endung .appimage oder nur .app. Dies dient nur der Erkennung für den Nutzer, technisch ist die Endung bedeutungslos und kann nach dem Download auch gelöscht werden. Die Containerdatei enthält neben dem eigentlichen Programm alle notwendigen Komponenten und Bibliotheken. Beim Start durch Doppelklick mountet ein Wrapper-Script zur Laufzeit alle Komponenten in das Dateisystem und lädt dann das eigentliche Programm. Typischerweise erscheint die Software in Taskmanagern dann zweimal – eine Instanz für das eigentliche Programm, die zweite für den Start-Wrapper. Der gesamte Ladevorgang ist komplexer als bei einer nativ installierten Software, was sich aber auf modernen Rechnern allenfalls messbar, aber nicht spürbar auswirkt. Der autarke Container benötigt kein besonderes Ausgangverzeichnis, sondern ist an beliebiger Stelle, auch auf externen USB-Medien lauffähig.

Appimages in der Praxis

Die wichtigsten und vertrauenswürdigen Quellen für Appimages sind folgende: https://github.com/AppImage/AppImageKit/wiki/AppImages: Diese Liste wurde zwar inzwischen durch https://appimage.github.io/apps/ ersetzt, ist aber einfacher und übersichtlicher als sein Nachfolger. Hier finden Sie namhafte Software wie Avidemux, Etcher, Gimp, Kdenlive, Krita, Openshot, Qupzilla, Scribus oder Xnview. Zum Download führt jeweils der Link „Releases“ neben dem Produktnamen und nachfolgend der Download-Link mit der Extension „.AppImage“ im Dateinamen.
https://bintray.com/probono/AppImages/ ist eine weitere große Fundgrube für Appimages unter anderem mit relativ aktuellen Browsern (Firefox, Chromium, Vivaldi) und viel Software-Prominenz wie Calibre, Clementine, Fritzing, Geany, Inkscape, Nightingale, Thunderbird, VLC, Wireshark. Nutzen Sie hier bei der jeweiligen Software den Link „Files“ und dort das Download-Angebot mit der Endung „.AppImage“. Hier lohnt es sich ferner, auf den Zeithinweis „Updated“ zu achten, um das möglichst aktuelle Image auszuwählen.
Ergänzend kann das kleinere Angebot auf https://www.linux-appimages.org/ besucht werden. Es führt aber aktuell nur in Einzelfällen über den Umfang der beiden bereits genannten Quellen hinaus.
Nach dem Download sollten Sie bei aller Portabilität des Pakets dieses in ein Verzeichnis verschieben, wo es dann voraussichtlich verbleiben wird. Das dient erstens der Ordnung und ist zweitens sogar notwendig, wenn Sie die spätere Option zur Systemintegration wahrnehmen wollen (siehe unten). Danach schalten Sie die Imagedatei ausführbar, entweder mit

chmod +x [name]

im Terminal oder über „Eigenschaften -> Zugriffsrechte“ im Dateimanager. Ab sofort ist die Software einsatzbereit. Beim ersten Start erscheint häufig die Abfrage „Would you like to integrate…“. Wenn Sie mit „Yes“ zustimmen, schreibt das Programm unter /usr/share/app-install/desktop seine .desktop-Datei. Dies führt dazu, dass es künftig im Startmenü oder Such-Dash des Systems auftaucht, außerdem im „Öffnen mit“-Dialog des Dateimanager, was die Verknüpfung mit Dateitypen erlaubt. Kurz: Das portable Programm ist damit praktisch wie eine echt installierte Software in das System integriert.
Beachten Sie ferner, dass die Image-Software selbst zwar „readonly“ ist, aber durchaus anpassungsfähig, da sie die Einstellungen im Home-Verzeichnis des Benutzers unter ~/.config/[Software], zum Teil auch direkt unter ~/.[Software] speichert. Das gewährleistet eine weitestgehend normale Nutzung. Ein Chromium-Appimage kann also durchaus Designs integrieren, eine Software wie Openshot kann wie gewohnt individuell eingerichtet werden.
Die „De-Installation“ ist natürlich ebenso einfach: Es genügt, die Appimage-Datei auf Dateiebene manuell zu löschen, gegebenenfalls auch noch den Konfigurationsordner unter ~/.config.
Da Appimages nicht update-fähig sind, sind sicherheitskritische Programme wie Browser und Mail nicht unbedingt erste Kandidaten. Einschlägig sind hingegen Tools wie Avidemux, Etcher, Krita, Openshot, Xnview, die man immer wieder mal und eventuell auf verschiedenen Linux-Systemen benötigt.

Theoretisch sind Appimages Update-fähig: Auf https://github.com/AppImage/AppImageUpdate/releases gibt es das Tool „AppImageUpdate“ – bei Redaktionsschluss AppImageUpdate-233-628bef8-x86_64.AppImage. Das Tool ist noch Beta und seinerseits ein Appimage. Nach dem Aufruf navigiert man im Dialog „Please choose an AppImage for updating“ zum fraglichen Appimage. Nach Doppelklick sucht das Tool nach Versions- und URL- Informationen im Image. Gibt es eine aktuellere Version, dann verbindet sich das Update-Tool mit der Seite des Entwicklers und lädt diese Version. Dabei sorgt eine Delta-Analyse für minimalen Download-Aufwand. Die ältere Version bleibt bestehen, kann aber natürlich gelöscht werden, wenn die neue Version problemlos läuft. Eine noch bequemere Integration in die Systemshell, die für Appimages ein Kontextmenü „Update“ anzeigt, ist noch nicht in allen Distributionen umgesetzt.

Unterm Strich ist AppImageUpdate eine sehr vielversprechende Technik, portable Linux-Programme aktuell zu halten. Leider haben viele Appimage-Entwickler die Update-Technik noch nicht auf dem Radar. Fehlen die nötigen Infos im Container, dann zeigt AppImageUpdate eine Fehlermeldung und den Rat, man solle den Entwickler informieren.

Appimages: Vorteile und Nachteile

+ universelles, Distributions-unabhängiges Format: Appimages laufen auf den allermeisten Linux-Distributionen

+ keine Installation, keine Paketabhängigkeiten

+ keine root-Rechte erforderlich, da keine Systemdateien berührt werden

+ eine Software = eine einzige Datei: läuft portabel aus jedem Ordner – auch von USB oder DVD

+ Appimages erlauben die Verwendung verschiedener Versionen nebeneinander

+ simple „De-Installation“ durch Löschen der Appimage-Datei

+ individuelle Einstellungen durch Konfigurationsdateien unter ~/.config/[Software] oder ~/.[Software]

+ optionale Systemintegration (Menü, „Öffnen mit“-Dialog) durch .desktop-Datei

– Appimages sind readonly. Für Updates ist eine besondere Technik erforderlich (siehe oben das Tool „AppImageUpdate“).

– Appimage bieten keine Sandbox-Isolation

– Appimages stammen ohne Drittkontrolle direkt vom Software-Entwickler

Der Clementine-Player ist nur als Appimage präsent, aber dennoch über die Gnome-Suche erreichbar. Dafür sorgt die beim Erststart erstellte .desktop-Datei.

Zurück zur Linux-Übersichtsseite…

Linux-Hürden für Umsteiger

Linux ist anders als Windows. Wer bisherigen Windows-Nutzern allein mit der Wahl des richtigen Linux ein Quasi-Windows verspricht, unterschlägt strategische und technische Hürden. Das Wichtigste bespricht dieser Beitrag.

Aufmacher_WinLin

Da es hier um Linux für Windows-Umsteiger geht, geht es logischerweise um Desktopsysteme für PCs und Notebooks. Die großartigen Möglichkeiten, die Linux (und zwar nur Linux) auf kleinen Servern eröffnet, bleiben komplett außen vor. Klipp und klar: Linux kann Windows auf dem Desktop ersetzen – aber nicht überall und nicht immer ohne Hindernisse.

1. Die Vielfalt der Distributionen

Für Windows-Umsteiger ist der artenreiche Linux-Zoo undurchsichtig: Es gibt eine dreistellige Anzahl von Linux-Varianten (http://distrowatch.com). Empfehlungen mit dem Motto „Das beste Linux für Windows-Umsteiger“ sind nicht verkehrt, aber zu relativieren. Solche Aussagen insinuieren, dass die Wahl des richtigen Systems alle Umstiegsprobleme aus dem Weg räumte. Richtig ist, dass manche Distributionen für Einsteiger überhaupt nicht in Betracht kommen, weil Installation, Konfiguration, Oberfläche oder alles zusammen unzumutbare Anforderungen stellen würden. Richtig ist ferner, dass Windows-Umsteiger sich nicht auf Linux-Exoten einlassen sollten: Die Nachhaltigkeit solcher Projekte ist ungewiss, und eine heute hochgelobte Neuerscheinung kann zwei Jahre später eingestellt sein.

Dieser Artikel ist keine Distributionsberatung. Wir begnügen uns hier mit der pauschalen Empfehlung für Debian/Ubuntu-basierte Distributionen (Debian, Ubuntu, Kubuntu, Ubuntu Mate, Xubuntu, Lubuntu, Linux Mint). Diese garantieren Nachhaltigkeit und lange Supportzeiträume. Der Installer aller Ubuntu-Varianten inklusive Linux Mint ist das Komfortabelste, was unter Linux anzutreffen ist, und auch der Debian-Installer ist Einsteiger-tauglich. Unter den Bedienkonzepten dieser Systeme kommt Linux Mint mit dem Cinnamon-Desktop den Gewohnheiten eines Windows-Nutzers am meisten entgegen. Die Ubuntu-Spielarten Ubuntu und Kubuntu erfordern mehr Gewöhnung, sind aber wie Ubuntu Mate, Xubuntu und Lubuntu schnell „habituiert“.

Ubuntu mit Gnome: Der innovative Desktop ist auf einfache Bedienung mit Windows-Taste und wenigen Mausklicks ausgelegt. Beste konservative Alternative ist Linux Mint mit Cinnamon.
2. Die Vielfalt der Desktop-Oberflächen

Punkt 1 hat es schon angesprochen: Zur Vielzahl der Linux-Distributionen kommt eine weitere, für Windows-Nutzer verwirrende Diversifizierung: Populäre Systeme wie Debian, Ubuntu und Linux Mint bieten für denselben Systemunterbau mehrere Desktop-Umgebungen an (Oberflächen), und die Wahl der Oberfläche ist mehr als nur eine Geschmacksfrage: Sie bestimmt maßgeblich die Konfigurierbarkeit und Anpassungsfähigkeit des Systems, die mitgelieferte Standardsoftware und den Ressourcenverbrauch.

Die wichtigsten Desktops sind die Schwergewichte KDE und Gnome 3 sowie die Leichtgewichte XFCE und LXDE (ideal für ältere Rechner). Cinnamon, Standardoberfläche von Linux Mint, und Mate sind wichtige Abspaltungen der älteren Gnome-2-Basis und führen dessen klassisches Bedienkonzept mit Systemleisten und Hauptmenü fort. Mate und Cinnamon, ebenso die sparsamen Oberflächen XFCE und LXDE für schwächere Hardware sind für Umsteiger leicht nachvollziehbar. KDE ist extrem anpassungsfreudig, aber auch relativ komplex, während Gnome 3 mit gewissen Parallelen zu Windows 10 ungewöhnlich, aber klar und simpel ausfällt. Es gibt neben den genannten eine Reihe weiterer Linux-Oberflächen mit exotischem Charme oder verblüffender Anspruchslosigkeit. Windows-Nutzer sollten davon besser Abstand halten.

Beachten Sie, dass einige Ubuntu-Distributionsnamen den benutzten Desktop anzeigen: Der Name „Kubuntu“ ist zu lesen als „Ubuntu mit KDE“, während Xubuntu“ und „Lubuntu“ als „Ubuntu mit XFCE bzw. LXDE“ aufzulösen ist. Das „Ubuntu“ ohne Zusatz meint die Hauptvariante mit Gnome-Desktop.

Sparsame Desktops: Distributionen mit XFCE und LXDE (im Bild Mint mit XFCE) laufen auch auf älterer Hardware mit wenig Speicher. Die Optik ist konservativ, aber nicht spartanisch.
3. Das Kriterium „Homogenität“

Windows ist Windows, und alles, was das System mitbringt, trägt die Microsoft-Handschrift. Linux ist der Systemkern – der Rest jedoch ist modular. Für Umsteiger ist es ein oft unterschätztes Problem, dass Oberfläche, Systemzubehör, Software nicht aus einer Hand sind. Der Nutzer muss mit unterschiedlicher Fehlertoleranz und Qualität rechnen: Die eine Komponente ist einsteigerfreundlich und warnt vor Fehlgriffen, die nächste erwartet hingegen einen Benutzer, der genau weiß, was er tut.

Wer als Umsteiger solches Gefälle vermeiden will, nimmt am besten ein Ubuntu oder Linux Mint und nutzt für die Systemverwaltung ausschließlich die Systemwerkzeuge, welche die Distribution mitbringt. Die vorinstallierten Systemtools populärer Distributionen sind hinsichtlich Zielgruppe und Qualität homogen und ausgereift.

Win 32 Disk Imager für 1:1-Kopien von ISO-Abbildern: Das Hilfsprogramm ist das technische Windows-Äquivalent des Linux-Tools dd. Wichtig ist die genaue Kontrolle des Ziellaufwerks.
4. Handarbeit mit ISO-Abbildern

Suche und Download einer Distribution sind kein Abenteuer, da eine Websuche nach einem populären System wie etwa „Kubuntu“ mühelos zur Projektseite und von dort zum ISO-Download führt. Das ISO-Abbild muss dann aber bootfähig auf DVD oder USB kopiert werden. Diese für Linux-User vertraute Prozedur ist für Windows-Nutzer keineswegs selbstverständlich.

Das einschlägige Windows-Werkzeug, um ISO-Abbilder auf CDs (ISO bis 700 MB) oder DVDs (ISO größer als 700 MB) zu brennen, ist das Tool Imgburn (auf Heft-DVD, Download unter http://imgburn.com). Wählen Sie hier die Option „Imagedatei auf Disc schreiben“. Der wichtigste Punkt des Folgedialogs ist links oben „Quelle“ mit dem kleinen Ordnersymbol, über das Sie dann zur ISO-Quelldatei navigieren. Bei eingelegtem Rohling wird dann die bunte Schaltfläche links unten aktiv, mit der Sie den Schreibvorgang auslösen.

Das beste Werkzeug, um unter Windows ISO-Abbilder auf USB oder SD-Karten zu kopieren, ist der Win 32 Disk Imager (auf Heft-DVD, Download unter http://sourceforge.net/projects/win32diskimager). Hier genügt es, die Quelldatei („Image File“) und das Zielgerät („Device“) anzugeben. Die Schaltfläche „Write“ startet den Kopiervorgang. Der Win 32 Disk Imager schreibt eine bitgenaue Rohkopie auf das Zielgerät und wird nur dann ein bootfähiges Medium erstellen, wenn das ISO-Abbild eine Bootumgebung enthält. Dies ist aber bei allen uns bekannten Abbildern der Fall.

Eine Alternative, um unter Windows ISO-Abbilder auf USB oder SD-Karten zu kopieren, ist Unetbootin (auf Heft-DVD, Download unter http://unetbootin.sourceforge.net). Hier wählen Sie im Dialog unten die Option „Abbild“ und navigieren mit der Schaltfläche „…“ zur gewünschten Datei. Nach Klick auf „Öffnen“ erscheint der komplette Pfadname im Eingabefeld. Danach wählen Sie neben „Typ“ die Option „USB-Laufwerk“, und neben „Laufwerk“ geben Sie den Laufwerksbuchstaben des USB-Sticks an. „OK“ startet den Kopiervorgang. Anders als der Win 32 Disk Imager schreibt Unetbootin seine eigene Bootumgebung auf das Zielmedium. Das Medium wird somit auch bootfähig, wenn das ISO-Abbild keine Bootumgebung beinhaltet. Andererseits funktioniert diese Bootumgebung aber nur für Ubuntu-basierte Distributionen.

5. Livesystem und Installationsmedium

Windows-Nutzer kennen eine Setup-DVD zur Systeminstallation, aber keine Livesysteme. Die ISO-Abbilder aller populären Linux-Desktop-Distributionen sind aber beides – Livesystem inklusive Installer. Das ist ein großzügiger Service, weil er das Ausprobieren eines Systems erlaubt und die tatsächliche Installation direkt aus dem laufenden Livesystem. Die weitreichenden Möglichkeiten, die ein Livesystem bietet, sind aber auch Anlass zu Missverständnissen: Ist ein ISO-Livesystem, das auf ein beschreibbares Medium (USB) kopiert wird, nicht genau dasselbe wie ein auf USB installiertes Linux? Nein! Livesysteme bleiben auch auf einem beschreibbaren Laufwerk unveränderlich, alle Änderungen gehen beim nächsten Shutdown wieder verloren. Wer Linux auf USB installieren will, muss die Installation genauso durchlaufen wie bei der Einrichtung auf interner Festplatte.

6. Hürden bei der Installation

Ein Linux-Setup fordert mehr Angaben als ein Windows-Setup, das im Kern nur die Zielpartition (sofern eine Auswahl besteht) und den Erstbenutzer abfragt. Erste Ursache dafür ist, dass Linux kein kommerzielles Lizenzmodell und keine Bindung an die Hardware kennt, daher beliebig oft und auch auf USB-Datenträger installiert werden kann. Ein zweiter Grund ist die Tatsache, dass der Bootloader auf einem beliebigen Datenträger gespeichert werden kann. Diese großzügigen Möglichkeiten sind komplexer als bei Windows und äußern sich notgedrungen auch in technischer Weise. Wenn die Partitionierung im Linux-Installer manuell erfolgt, gibt es eine weitere technische Hürde: Die meisten Distributionen wollen für die Speicherauslagerung eine extra Swap-Partition.

Ohne auf die unterschiedlichen Installer einzeln einzugehen, unter denen der Ubuntu/Mint-Installer „Ubiquity“ Komfortmaßstäbe setzt, gelten überall folgende Prinzipien:

  1. Linux benötigt wie Windows nicht unbedingt eine komplette Festplatte, aber eine eigene Partition. Verfügbare Partitionen wird der Installer in der Form „/dev/sd[x][n]“ anzeigen – etwa „/dev/sda1“. Es muss absolute Sicherheit herrschen, hier das richtige Laufwerk „[x]“ und die richtige Partition „[n]“ anzugeben, weil diese Partition komplett überschrieben wird. Wichtigste Orientierung bieten die Größenangaben für die Partitionen. Weitere Abfragen für eine Linux-Systempartition gelten dem Dateisystem („ext4“ empfohlen) und dem Einhängepunkt („/“ für das Wurzelverzeichnis).
  2. Für den Bootloader ist im Normalfall „/dev/sda“ vorgegeben. Das ist die erste interne Festplatte, so wie es auch Windows automatisch festlegt, und das ist in Ordnung, wenn Sie Linux auf eine interne Festplatte installieren. Bei Installation auf USB-Laufwerke müssen Sie hingegen als Bootloader-Ziel das Laufwerk angeben, wohin Sie auch das System installieren: Ist die Systempartition etwa „/dev/sdc1“, dann gehört der Bootloader auf das Gerät „/dev/sdc“. Wird dies übersehen, ist der USB-Stick nicht bootfähig.
  3. Je nach Installer kann das Einrichten der zusätzlichen Swap-Partition lästig bis unrealisierbar sein, da nicht jeder Installer ein Partitionierungswerkzeug anbietet. Einfachste Lösung ist es, auf die Swap-Partition zu verzichten. Jedoch lässt sich eine Festplatte auch vorab mit Gparted unter Linux oder mit der Windows-Datenträgerverwaltung so aufteilen, dass eine große Partition für das System und eine kleine (etwa 8 GB) für die Auslagerung entsteht. Die richtigen Dateisysteme – „ext4“ für das System, „swap“ für die Auslagerung kann dann später der Linux-Installer einrichten.

Bei Verwendung des Ubuntu-Installers werden Sie mit diesen technischen Fragen nur belästigt, wenn Sie unter „Installationsart“ die manuelle Einrichtung „Etwas Anderes“ wählen (etwa für ein Setup auf USB). Bei anderen Optionen  – Installation auf primäre Festplatte oder Dualboot neben Windows – übernimmt das Setup alles automatisch.

Ubuntu-Installer: Bei USB-Installationen müssen Sie Partitionen und Bootloader manuell einrichten (hier auf /dev/sdc). Die Einrichtung auf interne Festplatten verläuft vollautomatisch, sofern die vom Installer analysierte Situation zutrifft.
7. Unter Linux funktioniert nicht jede Hardware

Nicht jeder Hersteller hält es für nötig, Linux-Treiber für seine Hardware zu entwickeln. Resultat ist, dass dann dieses Gerät unter Linux schlicht nicht funktioniert. Kernkomponenten wie Sata, Ethernet, Grafikarte, Monitor, Maus, Tastatur sind nicht betroffen, wohl aber USB-Drucker, Scanner, WLAN-Adapter, TV-Sticks insbesondere von Billiganbietern. Die Chancen, anhand exakter Gerätekennungen und Chip-Revisionen doch noch Abhilfe im Web zu finden, sind begrenzt und gegebenenfalls für Umsteiger zu knifflig.

Keine Abhilfe, aber präventive Problemerkennung bieten die Livesysteme der Linux-Distributionen. Alles, was im Livesystem problemlos funktioniert, wird im selben System auch nach Installation auf Festplatte funktionieren. Ein Sonderfall sind brandneue Rechner mit aktuellsten Prozessoren: Hier ist es wichtig, ein Linux mit möglichst aktuellem Kernel zu verwenden, der den neuesten CPU-Entwicklungen bereits Rechnung trägt. Am Beispiel Ubuntu wäre in solchen Fällen die jüngste Version 17.10 (Kernel 4.13) der Langzeitversion 16.04.3 (Kernel 4.10) vorzuziehen.

8. Energiesparfunktionen unter Linux

Windows-Umsteiger müssen damit rechnen, dass sich der Akku desselben Notebooks unter Linux schneller entleert als unter Windows. Standardmäßig bietet Linux (Ubuntu: „Systemeinstellungen -> Leistung“, Mint: „Energieverwaltung“) fundamentale Stromspartechniken mit Timeouts für Bildschirm und Bereitschaftsmodus, jedoch bietet Windows hier in enger Absprache mit den Hardware-Herstellern filigranere Regeln. Immerhin ist eine Näherung an Windows-Verhältnisse mit spezialisierten Tools zu erreichen, die der Beitrag ab Seite [[502]] in diesem Heft erklärt.

Fundamentale Stromsparfunktionen: Die Akkulaufzeiten von Notebooks sind unter Linux kürzer. Die Basiseinstellungen des Systems können aber durch externe Tools ergänzt werden.
9. Fehlende Software und Spiele

Anpassungsfähige Windows-Umsteiger werden unter Linux für jedes Einsatzgebiet geeignete Software vorfinden. Wenn es aber statt Gimp oder Libre Office ganz bestimmte Microsoft- oder Adobe-Software sein muss, kann Linux nicht dienen. Wer aus beruflichen Gründen uneingeschränkte Kompatibilität mit Excel, Word, Indesign oder Photoshop benötigt, wird mit Linux mittelfristig nicht froh: Der durchaus realisierbare Austausch der Formate erfordert immer wieder lästige Korrekturen am Detail.

Auch die Erfolge, die das Projekt Wine mit dem Nachbau der Windows-API vorweisen kann (https://appdb.winehq.org/), fallen qualitativ sehr unterschiedlich aus: Dass hier genau die benötigte Version einer Windows-Software einen störungsfreien „Platinum“- oder „Gold“-Status erreicht, bleibt ein Glücksfall. Ferner bedeutet die Benutzung von Wine eine weitere Hürde: Die Einrichtung ist einfach, der produktive Umgang damit aber keineswegs trivial.

PC-Spiele? Trotz Anbindung an die Spielplattform Steam ist Linux in Konkurrenz zu Windows keine Gaming-Plattform. Das Angebot bleibt gegenüber Windows reduziert, und leistungstechnisch kann selbst das dedizierte Gaming-Linux Steam OS (http://store.steampowered.com/steamos/) ein Windows nicht schlagen.

10. Die Installation von Software (Paketmanagement)

Der Bezug von Software bedeutet für Umsteiger eine große Umstellung. Linux bezieht seine Software aus den Paketquellen der jeweiligen Linux-Distribution. Die Softwarepakete sind signiert und garantiert virenfrei – ein unschätzbarer Vorteil gegenüber Windows. Ein weiterer Vorteil ist die Möglichkeit, ein komplettes System einschließlich Software mit einem einzigen Befehl zu aktualisieren (sudo apt dist-upgrade).

Auf der anderen Seite sehen Windows-Nutzer, die es gewöhnt sind, sich aus dem gesamten Web zu bedienen, auch Nachteile: Was die Distributions-Paketquellen bereitstellen, ist hinsichtlich Umfang und Aktualität begrenzt. Die Debian/Ubuntu-Repositories sind quantitativ zwar sehr gut gefüllt, doch stagnieren hier oft die Programmversionen während des Lebenszyklus einer Distribution. Wer nicht selbst den Quellcode kompilieren will, bleibt oft auf ältere Versionen beschränkt.

Dieses strikte Software-Deployment ist allerdings längst aufgeweicht. Programmentwickler können ihre Software auf einem PPA (Personal Package Archive) anbieten. Wenn der Anwender solche PPAs etwa mit apt-add-repository ppa:libreoffice/ppa (Beispiel für Libre Office) in seine Standardpaketquellen aufnimmt, kann er das Software-Angebot erweitern oder aktueller halten.

Zusätzlich zu den PPAs kommen zunehmend Programme in Container-Paketen in Mode (Snap, Flatpak, Appimage). Solche Pakete bringen alle benötigten Systembibliotheken mit und sind somit Distributions-unabhängig, ohne Installation lauffähig und portabel.

Jenseits der offiziellen Software-Quellen: PPAs (Personal Package Archives) für Ubuntu und Mint erweitern oder aktualisieren den Software-Bestand der Distributionspaketquellen.
11. Software-Verwaltung: Grafische Tools oder Terminal

Der Komplex der Paketverwaltung unter Ubuntu (und ähnlich Linux Mint) ist für Umsteiger gewöhnungsbedürftig, da er sich auf drei grafische Werkzeuge aufteilt. Was Ubuntu als Softwarequellen nutzt, ist unter „Systemeinstellungen -> Anwendungen & Aktualisierungen“ einstellbar. Aktives Aktualisieren findet aber nicht in diesem Tool statt, sondern in der „Aktualisierungsverwaltung“. Für Neu- oder De-Installationen ist wiederum das Tool „Ubuntu Software“ zuständig, das allerdings nur einen Bruchteil der etwa 40000 Pakete der Ubuntu-Repositories anbietet.

Umsteiger, die mit der Kommandozeile nicht gänzlich auf Kriegsfuß stehen, sind mit apt-Befehlen im Terminal oft besser beraten, wo sich alles zentral an einem Ort erledigen lässt. Eine Handvoll Kommandos genügt für fundamentale Aufgaben (weitere Optionen zeigt der Kasten „Software, Updates, Upgrades“). Der Befehl

sudo  apt  install  vlc

installiert eine Software, dessen Paketnamen Sie kennen (im Beispiel der VLC-Player). Wenn Sie einen Paketnamen nicht kennen, hilft apt-cache, das auch nach Beschreibungen filtern kann:

apt-cache search  dateimanager

Für das Deinstallieren genügt ein remove-Kommando:

sudo apt remove vlc

Achtung: Das De-Installieren von Programmen ist unter Linux vollständiger als vom Windows-Nutzer gewohnt. Wenn Sie im jeweiligen Software-Center oder im Terminal mit sudo apt remove […] ein Programmpaket entfernen, berücksichtigt Linux alle verzeichneten abhängigen Pakete. Im Extremfall kann eine kleine Desktop-Komponente, die aber integraler Teil der grafischen Oberfläche ist, den kompletten Desktop de-installieren. Dies geschieht aber nach Anzeige der entsprechenden Paketliste und einer Rückfrage. Wenn der Löschauftrag eine Liste von abhängigen Paketen meldet, sollten Sie den Auftrag abbrechen.

Vorsicht mit abhängigen Paketen beim De-Installieren: Das Beispiel zeigt Libre Office Draw, das sich nicht deinstallieren lässt, ohne das komplette Office-Paket mitzuziehen.
12. Updates und Upgrades

Windows hat seinen monatlichen Patchday, an dem es optional auch Microsoft-Anwendungssoftware aktualisiert (Office). Die komplette restliche Software benötigt allerdings ihre je eigenen Updates. Bei Linux genügt hingegen ein Befehl (sudo apt dist-upgrade) oder ein Klick auf die automatisch erscheinende Meldung der „Aktualisierungsverwaltung“ für ein Komplett-Update inklusive Software.

Heikler als Updates sind Upgrades. Bei Ubuntu sind Upgrades auf die jeweils nächste Version vorgesehen. Sie können also von 17.04. auf 17.10 wechseln oder demnächst von der LTS-Version 16.04 auf 18.04 LTS. Sobald ein Upgrade verfügbar ist, meldet sich die Aktualisierungsverwaltung automatisch. Sie müssen dann nur auf „System aktualisieren“ klicken und den weiteren Anweisungen folgen. Wenn Sie das Angebot aus Zeitmangel zunächst ablehnen, können Sie die Option später über die „Aktualisierungsverwaltung“ nachholen.

Der Terminalbefehl für ein Upgrade lautet

sudo do-release-upgrade

und sollte durch eine normale Systemaktualisierung mit

sudo apt update
sudo apt dist-upgrade

vorbereitet werden.

Linux Mint zeigt in der „Aktualisierungsverwaltung“ im Menü „Bearbeiten“ die Option „System aktualisieren auf Linux Mint xx.x“, sobald ein jüngere Version erhältlich ist. Bevor man das tut, ist es ratsam, das System erst auf den neuesten Stand zu bringen (wie bei Ubuntu).

Sollte ein Upgrade wegen eines Abhängigkeitsfehlers abbrechen, nutzen Sie diese beiden Befehle:

sudo apt -f install
sudo apt dist-upgrade

Achtung: System-Upgrades sind ein langwieriger und kritischer Vorgang. Viele Distributionen bieten das Upgrade daher gar nicht erst an. Ubuntu und Linux Mint haben den Vorgang aber nach unserer Erfahrung gut im Griff. Ärgerlich sind Upgrade-Angebote, die überwiegend scheitern und am Ende doch eine Neuinstallation erfordern (wie etwa beim NAS-System OMV).

Exkurs: Software – Updates – Upgrades

Aus Gründen, die der Haupttext darlegt, ist der Komplex der Paketverwaltung im Terminal am besten aufgehoben. Das Tool apt (Advanced Package Tool) ist das Terminal-Werkzeug unter Debian/Ubuntu/Mint für alle Aufgaben der Paketverwaltung (Software-Quellen, Aktualisierung, Neu- und De-Installation). Alle Befehle außer apt-cache search benötigen root-Recht (vorangestelltes sudo):

apt update
Software-Paketquellen aktualisieren (fundamental)

apt upgrade [Paket]
komplettes System [oder bestimmte Software] aktualisieren

apt full-upgrade 
komplette Aktualisierung des Systems (inkl. Löschen alter Pakete)

apt install [Paket]
Programm installieren

apt remove [Paket]
Programm deinstallieren

apt purge [Paket] 
Programm komplett löschen

apt autoremove
nach Deinstallationen überflüssige gewordene Pakete löschen

apt-add-repository [Quelle]
externe Software-Paketquelle erlauben

apt-cache search [Name]
sucht nach Paketnamen und Beschreibungen

do-release-upgrade
Upgrade auf nächsthöhere Version

13. „sudo“ und Administratorrechte

Die Verhältnisse zwischen Standard- und Administrator/root-Konto sind unter Linux und Windows ähnlich, aber der bedarfsweise Wechsel von eingeschränkten Benutzerrechten zu uneingeschränkten root-Rechten folgt anderen Regeln. Möglich ist dieser Wechsel bei Windows wie Linux nur Systemkonten, die zur Gruppe der Administratoren gehören. Während Windows nur einen „Ja“-Klick auf die Abfrage der „Benutzerkontensteuerung“ verlangt, fordert Linux die Eingabe des Benutzerkennworts. Diese Abfrage an der grafischen Oberfläche erscheint bei allen systemnahen Aktionen (Installation, Paketquellen, Benutzerkonten, Aktualisierungsverwaltung). Im Terminal kann dem eigentlichen Befehl sudo vorangestellt werden, um dem Befehl root-Recht zu verleihen. Auch hier fordert Linux die Eingabe des Benutzerkennworts.

Die Erlaubnis, mit sudo den Rechtekontext zu wechseln, erhält normalerweise jedes Benutzerkonto vom Typ „Administrator“ automatisch. Es ist aber darüber hinaus möglich, sudo-Erlaubnis über die Konfigurationsdatei „/etc/sudoers“ manuell und individuell einzurichten.

Im grafischen Dateimanager sind alle Schreibaktionen wie „Ordner anlegen“ oder „Löschen“ inaktiv, wenn man sich jenseits von /home, /tmp oder /media aufhält. Jedoch bieten Desktopsysteme wie Ubuntu und Mint das Kontextmenü „Als Systemverwalter öffnen“, um im Dateimanager uneingeschränkt mit root-Recht zu arbeiten. Wenn ein Dateimanager diese Option nicht selbst anbietet, können Sie ihn im Terminal mit vorangestellten sudo starten – also etwa sudo nautilus, um root-Recht zu erzwingen.

Kontextmenü für Administrator-Recht: Die Dateimanager von Ubuntu und Mint machen es einfach, Ordner oder Dateien zu bearbeiten, die den Wechsel zu root-Rechten erfordern.
14. Die lokalen Dateirechte

Das Thema Dateibesitz und Dateirechte ist unter Windows wie Linux kompliziert und Ursache für manche Zugriffsprobleme, zumal auch Netzfreigaben für einen User „xyz“ mindestens auch lokale Leserechte für „xyz“ voraussetzen. Linux-Einsteiger können nichts Klügeres machen, als manuelle Rechteänderungen möglichst zu vermeiden. Dabei helfen Ubuntu-Systeme inklusive Linux Mint mit Dateimanagern, die lokale Datenträger und Netzwerklaufwerke automatisch (Automount) so ins Dateisystem mounten, dass keine Rechtekonflikte entstehen. Die typische Nutzung von Netzressourcen über „Netzwerk durchsuchen“, Klick auf den gewünschten Server und dessen Freigabe, lädt die Netzfreigabe automatisch in einen Mountpunkt, der keine lokalen root-Rechte benötigt. Im Hintergrund arbeitet bei allen Gnome-affinen Desktops das Tool gvfs-mount, das auch im Terminal benutzt werden kann und stets in den Pfad „/run/user/[user-id]/gvfs/“ mountet. Dieses Automount geht Rechteproblemen aus dem Weg und hat nur den Nachteil, dass es nicht dauerhaft gilt: Es muss einmal in der laufenden Linux-Sitzung geschehen und gilt bis zur Abmeldung.

Bei typischen Zugriffsproblemen, wo statt dem normalen User nur root die nötigen Dateirechte besitzt, ist daher die richtige Antwort eine andere Mount-Methode – und nicht das rekursive Ändern massenhafter Dateirechte. Dennoch ist das im Notfall natürlich möglich. Dateimanager eignen sich über „Eigenschaften -> Zugriffsrechte“ nur für einzelne Ordner und Dateien. Der Terminalbefehl chown („change ownership“) ändert den Besitzer und arbeitet sich mit Schalter „-R“ auch rekursiv durch ganze Ordnerebenen:

sudo chown -R [Benutzer] [Pfad]

Zum Ändern der Rechte dient der Befehl chmod – mit leider zwei Beschränkungen. Er arbeitet nicht rekursiv, was sich mit Hilfe des find-Befehls kompensieren lässt. Chmod unterscheidet aber auch nicht zwischen Dateien und Ordnern. Wenn man Dateien und Ordnern dieselben Zugriffsrechte zuteilt, führt das zu dem Dilemma, dass sich entweder Ordner nicht öffnen lassen oder Dateien allesamt das „Ausführen“-Recht erhalten. Beides wäre fehlerhaft. Daher sind zwei Befehle notwendig:

find . -type f -exec chmod 664 {} \;
find . -type d -exec chmod 775 {} \;

„type f“ bearbeitet nur Dateien, „type d“ nur Ordner. Die Beispielbefehle würden ab dem aktuellen Verzeichnis (Punkt „.“) alle Unterordner verarbeiten.

Eine Rechteänderung, die jeder Linux-Nutzer kennen muss, betrifft das „Ausführen“-Bit von Scripts, das sich über „Eigenschaften -> Zugriffsrechte“ oder mit

chmod +x [Dateiname]

setzen lässt. Ohne dieses Bit gelten Scripts als Textdatei und werden nur angezeigt statt ausgeführt.

Ausführen-Bit setzen: Scripts werden erst ausführbar, wenn das Execute-Bit gesetzt ist. Das erledigt der Dateimanager oder auch chmod +x [name] im Terminal.
15. Automount von Netzwerk-Ressourcen

Beim erstmaligen Mounten von Samba-Freigaben im Dateimanager (siehe Punkt 14) muss sich der zugreifende Benutzer ausweisen und Samba-Kontonamen und -Kennwort eingeben. Diese Zugangsdaten können auf Wunsch dauerhaft hinterlegt werden („Nie vergessen“). Zusätzlich – und für Windows-Umsteiger ungewohnt – wird hier die „Domäne“ abgefragt. Im lokalen Netzwerk verwenden Sie hier wahlweise den Rechnernamen des Servers wie „raspberry“ oder „fritz-nas“ oder die Arbeitsgruppe, typischerweise „workgroup“, sofern keine explizit angelegt wurde.

Eine weitere Hürde für Windows-Nutzer ist der relativ abgelegene Automount-Pfad von Netzwerkfreigaben unter „/run/user/[…]/gvfs/“. Im Dateimanager, wo eingehängte Ressourcen unter „Geräte“ mit einem Klick erreichbar sind, spielt dieser Mountpunkt keine Rolle, bei der Nutzung anderer Programme oder des Terminals hingegen schon. Wird nun versucht, mit einem manuellen mount-Befehl ein Netzlaufwerk in einen angenehmeren User-Pfad einzubinden, dann stellt sich das Problem, dass der mount-Befehl root-Rechte erfordert, was dann unweigerlich zu Rechteproblemen im Mount-Ordner führt. Hier hilft nur ein Eingriff in eine Konfigurationsdatei, hier in die „/etc/fstab“ (Beispiel):

//192.168.178.20/archiv   /home/ha/Archiv   cifs user=ha,password=0815,domain=raspi,users  0  0

Die Freigabe wird dann automatisch bei der Systemanmeldung eingehängt. Die Option „users“ sorgt dafür, dass man die Freigabe außerdem mit User-Rechten ein- und aushängen darf. Die Befehle

mount /home/ha/Archiv
umount /home/ha/Archiv

funktionieren dann ohne root-Recht und benötigen nur den Mountpunkt als Parameter.

Netzwerk-Authentifizierung mit „Domäne“: Diese Abfrage beantworten Sie am einfachsten mit dem Rechnernamen des Servers, der die Freigabe bereitstellt.
16. Netz-Protokolle und Anwendungssoftware

Die Dateimanager Nautilus, Nemo, Dolphin, Caja prominenter Desktopsysteme beherrschen den Umgang mit diversen Netzwerkprotokollen – neben Samba (smb://) und FTP (ftp://) auch SSH (sftp://) oder Webdav (webdav://). Solche Netzadressen zeigt der Dateimanager, wenn Sie über „Netzwerk durchsuchen“ einen Datenserver anklicken, Adressen wie „smb://raspberry/“ können Sie aber auch direkt in die Adresszeile des Dateimanagers eingeben.

Für Einsteiger irritierend ist die Tatsache, dass ein solcher Netzwerkpfad zwar im Dateimanager ans Ziel führt, im Terminal oder einer Anwendungssoftware jedoch scheitert. Einfacher Grund ist, dass diese Programme die Protokolle nicht beherrschen: Sie erwarten, dass solche Netzressourcen in das lokale Dateisystem eingehängt wurden, und arbeiten nur über diesen lokalen Mountpfad. Also – zunächst im Dateimanager mounten, erst danach in der Software nutzen!

17. Übersicht über sämtliche Laufwerke

Der Windows-Explorer zeigt interne und externe Laufwerke mit allen Partitionen auf oberster Ebene an. Viele Linux-Umsteiger vermissen diese Ebene, die von dort ein Herabsteigen in die Verzeichnisebenen gestattet. Der Einstieg über das Wurzelverzeichnis („/“) des Dateisystems ermöglicht dies nicht, da Laufwerke oder Netzfreigaben in beliebigen Verzeichnissen eingehängt sein können. Jedoch bietet die Navigationsleiste in den Dateimanagern eine solche Übersicht: Unter „Geräte“ sind dort üblicherweise alle Partitionen aufgelistet. Wer zusätzlich eine Übersicht der Laufwerke im Hauptfenster sehen will, kann in das Adressfeld des Dateimanagers „computer:///“ eingeben und diese Laufwerkübersicht mit Strg-D („Lesezeichen -> Lesezeichen hinzufügen“) dauerhaft in der Navigationsspalte ablegen. Bei manchen Dateimanagern ist dieser Eintrag „Rechner“ standardmäßig vorhanden.

18. Die Laufwerksbezeichnungen /dev/sd[x][n]

Unter Windows dienen aufsteigende Buchstaben als Kennung für Datenträger. Aus historischen Gründen beginnt das Alphabet bei „C“, da „A“ und „B“ ungenutzt weiterbestehen (ehemals Diskettenlaufwerke). Linux ist hier eigentlich klarer, dennoch sind die Kennungen ein häufiges Problem für Umsteiger. Laufwerke und Partitionen eindeutig zu bestimmen, ist aber fundamental bei der Installation oder beim Schreiben von ISO-Abbildern.

Eine Kennung wie /dev/sda1 beginnt mit /dev/ für „Device“, „sd“ kennzeichnet die Schnittstelle „Sata Device“ (seltener sind „sc“ für SCSI-Device oder „m“ für RAID). Wichtig wird es danach: „a“ bedeutet die erste interne Festplatte, „b“ die zweite oder – falls nicht vorhanden – bereits das erste externe USB-Laufwerk. Die abschließende Zahl ist die Partitionsangabe.

Die Kennungen sind über grafische Werkzeuge wie „Laufwerke“ (gnome-disks) oder Gparted zu ermitteln. Eine schnelle Übersicht bietet der Terminalbefehl lsblk, der sich optional mit Output-Parametern („-o“)

lsblk -o name,type,label,size,mountpoint,fstype

gesprächiger schalten lässt.

Wichtig vor Installationen oder Kopieren von ISO-Abbildern: lsblk im Terminal liefert einen schnellen Überblick über alle Partitionen – rechts das Systemtool gnome-disks („Laufwerke“).
19. Groß-/Kleinschreibung und Sonderzeichen

Unter Windows spielt die Schreibung weder bei Dateinamen noch bei Befehlen und Schaltern eine Rolle. „DIR“ ist dasselbe wie „dir“ oder „diR“. Unter Linux ist genaue Schreibung hingegen zwingend: Den Befehl „LSBLK“ gibt es nicht, und ein Schalter „-X“ bedeutet etwas anderes als „-x“. Folgerichtig können auch Dateiobjekte wie „Musik“, „musik“ und „MUSIK“ nebeneinander existieren.

Nonchalant verhält sich Linux hingegen bei Sonderzeichen in Datei- und Ordnernamen. Die Sortierung von Ordnern und Dateien im Dateimanager wie im Terminal fällt bei Verwendung von Sonderzeichen deutlich anders aus. Während Windows einen Ordner „_Start“ vor allen Ordner mit alphanumerischen Startzeichen einsortiert, ignoriert Linux das Sonderzeichen und ordnet ihn unter „S“ ein. Zum echten Problem beim Datenaustausch zwischen Linux und Windows können Sonderzeichen in Dateinamen werden, da Linux mehr Sonderzeichen erlaubt als Windows. So können Linux-Dateinamen auch Doppelpunkt, Fragezeichen, Asterisk (*) oder Backslash enthalten.

20. Abmelden – Shutdown – Bereitschaft

Unter Windows 10 führt ein Rechtsklick auf das Hauptmenü zum Punkt „Herunterfahren oder abmelden“. Der Klickweg ist nicht intuitiv, aber immerhin ist hier alles an Ort und Stelle. Unter Linux handhaben die Desktop-Oberflächen das jeweils eigen: Unter Linux Mint sind alle Abschaltfunktionen wie Abmelden, Ausschalten, Neustart oder Bereitschaft im Hauptmenü versammelt – übersichtlich und leicht zu finden. Andere Linux-Desktops wie etwa Gnome folgen der technischen Logik und trennen die echten Abschaltfunktionen von jenen der Benutzer-Session. Hinter dem typischen Abschaltsymbol gibt es daher nur Shutdown und Neustart, während die Abmeldung oder die Bildschirmsperre unter dem Kontonamen zu finden sind.

Alle Abschalt-Optionen an Ort und Stelle: Das Menü von Linux Mint versammelt Abmeldung und Shutdown-Varianten übersichtlich an zentraler Stelle.

Zurück zur Linux-Übersichtsseite…

Clu Linux Live

Ja, das gibt es auch noch: ein gut ausgestattetes Linux-Livesystem ohne grafischen Desktop. Beim Start des Livesystems sind vier Fragen zu beantworten, erstens nach dem (root-) Kennwort, ferner ob alle lokalen Laufwerke gemountet und ob Samba- und SSH-Server aktiviert werden sollen. Diese Entscheidungen sind alles andere als grundlos, denn wenn Sie allem zustimmen, sind sämtliche Laufwerke des darunterliegenden Rechners automatisch im Windows-Netz und via SSH freigegeben (mit dem angegebenen root-Kennwort und über die IP-Adresse). Eventuelle Datenrettung erfordert daher gar kein Terminal unter Clu Linux, sondern läuft bequem über Samba oder SSH im Netz.

Am System selbst sind alle typischen Kommandotools vorrätig, nicht zuletzt der Midnight Commander, der seinerseits als SSH-Client auf Linux-Rechner zugreifen kann. Clu Linux bootet nur von CD/DVD, kann aber als Bestandteil eines Multiboot-Sticks auf USB kopiert werden (etwa mit „Multiboot USB“).

Download (ca. 420 MB):
https://sourceforge.net/projects/clu-linux-live

Musiker mit Alleinstellungsmerkmal

Nachdem die Musik-Idole meiner Jugend allmählich wegsterben, mal ein paar sehr persönliche Kurzsteckbriefe zu großen Musikern und Interpreten:

J. S. Bach: Musikalische Mathematik oder mathematische Musikalität? Man meint, das Uhrwerk des Metronoms mitticken zu hören: Unglaubliche Rationalität, Krebse der Umkehrung, Handwerk des 4-stimmigen Satzes – trotzdem feinste Musikalität. Man kann über Beatles, Annihilator, AC/DC streiten, auch über Mozart oder Wagner. Über Bach – NIE.

Frank Zappa: Viel zu früh gestorben – da wäre noch viel, sehr viel gekommen. Zappa hat sich immer als professioneller Darbieter VOR oder sogar NEBEN seine Musik gestellt. Eine unerreichte Distanz von Musik und Interpret – darbietend, ironisch: „Das haben wir jetzt – ich spiele euch noch eins“. In der jetzigen Zeit der schwer erträglichen Identifikation von Musik und Interpret (Pop, Lang Lang…) eine befreiende Rationalisierung. Dabei faszinierend: Diese distanzierende Objektivierung der Musik geht einher mit einer perfektionistischen Besessenheit, die den Gegenstand absolut ernst nimmt.

Helge Schneider: Ich bin kein Fan. Aber der Mann ist ein Unikum, insofern er musikalisch wirklich was kann, aber so tut, als könne er nichts. Das ist die genaue Umkehrung dessen, was der „Künstler“-Mainstream tut.

Metallica: Die Band hat einen exzellenten Gitarristen und einen unverkennbaren Sänger – aber das ist es nicht: Metallica macht das Schlagzeug zum echten Instrument, das die Stücke präzisiert, gliedert, zum Teil dominiert. Rhythmisch leistet Metallica das Komplexeste und präzisest Strukturierte, was Rockgeschichte zu bieten hat. Ich verneige mich ehrfürchtig. Schalte aber oft schon beim zweiten Stück wieder ab…

Lang Lang: Wenn man den HÖRT, fällt einem nicht viel ein. So spielt ein perfekter Pianist eben Beethoven oder Liszt. Wenn man ihn bei seiner Selbstinszenierung SIEHT, wird die gehörte Musik zum missbrauchten Gegenstand. Unerträglich.

Bob Dylan: Der Mann kann eigentlich nicht singen, und er hat kein Rhythmusgefühl. Es gibt gemeinsame Auftritte mit Eric Clapton, wo letzterer ziemlich verzweifelt schaut, weil die Einsätze nie klappen. Trotzdem ist er der ergiebigste lyrische Barde seiner Zeit. Man weiss nicht genau warum, aber es gilt. Wir gönnen ihm seine 16 Badezimmer. Den Literatur-Nobelpreis nicht – der ist ein Witz.

Joe Cocker: Der britische Klempner war eine Naturstimme. Nicht mehr, aber kein austauschbares Milligramm weniger. Nicht mehr, weil er vermutlich von Musik nicht das Geringste verstand (das ließe sich recherchieren, aber das halte ich für unnötig).

AC/DC:  Der Sänger kann schon seit 15 Jahren nicht mehr singen. Der Schlagzeuger haut grundsolide den Takt, und über die Virtuosität des Lead-Gitarristen werden die wahren Gitarren-Künstler schmunzeln. Warum ist AC/DC trotzdem mit die beste Band klassischen Hardrocks? Weil alle diese 3-4-Minuten-Songs (Schema: Intro, 3 Strophen und Angus-Solo nach der zweiten) immer eine stimmige prollige Einheit simpler dreckiger Gitarrenriffs und simpler dreckiger Texte herstellen. Und die Band, die sie vorführt, tut mindestens so, als würde sie dies authentisch leben. Man glaubt ihr.

Mozart: Der klingt mir zu leicht. Manche Vorhalt-Ritardandi sind auch einfach eines zu viel. Man hat immer den Eindruck, Mozart haut das anstrengungslos raus, ohne Mühe, ohne Ringen. Kann man bewundern, was scheinbar ohne Willensanstrengung, Pflicht, Ethos perfekt gelingt? Ja sicher kann man, genau das ist das Genie. Ich kann es nicht – da bin ich klar auf der Seite des grüblerischen Beethoven.

Joe Satriani: Gitarren-Gott mit Hang zum gesanglichen Pathos, das aber meistens zu mechanisch daherkommt: Da fehlt oft ein Stück Musikalität und Überraschungsmoment, wenn das Thema dann stereotyp in der Subdominante wiederholt wird. Harmonisch immer sehr absehbar, trotzdem ein ganz großer Saiten-Frickler…

Yingwie Malmsteen: Gitarrenmaschine. The Unbelievable – ungefähr so sympathisch wie Lang Lang am Flügel – inszenierte Virtuosität.

Richard Wagner: Wagner-Opern haben berauschende Momente, wo sich die immer wieder auflösende und steigernde Suche nach einem klassischen Dominantsextakkord  erlöst oder doch wieder in halb zweifelnden Mischharmonien öffnet. Ich bin aber leider mit 4-Minuten-Songs sozialisiert worden und tu mich schwer, für fünf solcher Momente drei bis fünf Stunden Zeit zu investieren.

Puppy-Systeme – klein und schnell

Sie sind optimale Zweitsysteme für die Hosentasche – zum Arbeiten, Surfen oder Reparieren. Die Puppy-Systeme, die Barry Kauler vor 15 Jahren entwickelt hat, sind ausgereift und flexibel, aber nicht ganz simpel.

Wer die Puppy-Familie mit Tahrpup, Slacko, Quirky, Fatdog, Macpup, Lxpup, Simplicity ignoriert, verschenkt das Potential großartiger Livesysteme: Die Puppies bringen auf typischerweise nur 200 bis 300 MB großen ISO-Abbildern kaum glaubliche Software-Sammlungen unter, haben einen RAM-Eigenbedarf von nur 60 bis 150 MB, booten fix (mit Ausnahmen) und bieten ein Konzept, um die an sich unveränderlichen Livesysteme über persistenten Speicher individuell anzupassen. Die Einrichtung birgt allerdings einige Hürden und wird begleitet von einer Dialogflut mit Frickler-Tonalität. Diese Hürden muss man erst mal nehmen. Dieser Beitrag erklärt das Puppy-Konzept, die Einrichtung der Systeme sowie Ausrichtung und Unterschiede einiger populärer Puppy-Varianten.

Einsatzgebiete: Warum Puppy?

Kleine Linux-Live-Distributionen, die sich für schwachbrüstige Hardware oder für den mobilen Einsatz als Zweitsystem eignen, gibt es zuhauf. Puppy-Varianten sind aber nicht nur besonders klein und sparsam (bei reicher Software-Ausstattung), sondern kombinieren die Sicherheit eines nicht kompromittierbaren Livesystems mit der Anpassungsfähigkeit eines installierten Linux. Das erreichen sie dadurch, dass die schreibgeschützten Squash-FS-Archive (Dateien mit der Endung -sfs) für das Kernsystem ergänzt werden durch persistenten Speicher, der System- und Software-Einstellungen sowie nachinstallierte Software bereithält. Dieser persönliche Speicher kann als einzige große Datei „pup_save.4fs“ (oder je nach Puppy-Variante ähnlich, etwa „thar_save.4fs“) oder als Ordner (etwa „tharsave“) vorliegen. Dieser Speicher wird beim Booten automatisch geladen, es sei denn, es gibt mehrere persönliche Speicher (auch das ist möglich), die eine vorherige Abfrage des Benutzer erfordern.

Livesystem mit Persistenz und individuellen Einstellungen? Auch das ist natürlich kein Alleinstellungsmerkmal von Puppy: Typische Livesysteme wie Tails oder Porteus beherrschen das ebenfalls, und sämtlichen Ubuntu-basierten Systemen kann das Tool Unetbootin zur Persistenz verhelfen, sofern man sie als Livesysteme nutzen will. Aber keine andere Linux-Linie neben Puppy hat sich so fokussiert, live, schnell, klein und optimal anpassungsfähig zu sein. Es ist letztlich ganz egal, ob der Einsatzzweck ein mobiler Werkzeugkasten, eine Arbeitsumgebung, ein Surfsystem oder sicheres Home-Banking sein soll.

Im Kern ist Puppy eine Methode, vorhandene Distributionen auf ein möglichst kleines Livesystem zu reduzieren. Während viele Projekte Linux-Systeme als Grundlage nehmen, die mit weiteren Ergänzungen ausgebaut werden, geht Puppy den umgekehrten Weg und entfernt zunächst viele Komponenten. Dazu dient das Baukastensystem „Woof-CE“ (https://github.com/puppylinux-woof-CE/woof-CE), das die Reduktion einer Distribution mit Scripts vereinfacht. Die Resultate sind Livesysteme mit eigener Bootumgebung und komfortablen Tools aus dem Puppy-Baukasten. Puppies laden sich während des Starts komplett in den Arbeitsspeicher. Im Unterschied zu typischen Linux-Verhältnissen wird der Anwender automatisch angemeldet und hat root-Rechte. Puppy ist somit kein Mehrbenutzersystem, jedoch ist möglich, Benutzerprofile mit unterschiedlichen Einstellungen zu verwenden.

Faszinierend sparsam: Auf diesem Netbook mit bescheidenem 1 GB Arbeitsspeicher meldet Puppy Tahr nur knapp 60 MB Eigenbedarf.

Die Einrichtungsmöglichkeiten

Offizielle Webseite der Puppy-Systeme ist http://puppylinux.org. Dort gibt es grundsätzliche Informationen und als Download-Link zumeist den Server http://distro.ibiblio.org/puppylinux/, der alle offiziellen Puppy-Varianten versammelt, ferner auch zahlreiche „Pets“ – Software-Pakete für Puppy-Systeme. Eine schnellere Quelle für einige prominente Puppies ist http://puppylinux.com/download.html. Download-Quellen für weniger prominente Varianten müssen Sie gegebenenfalls recherchieren. So liegt Lxpup etwa auf Sourceforge (https://sourceforge.net/projects/lxpup) oder Macpup auf http://macpup.org.

Puppy-Systeme laufen an sich hervorragend von CD und können dabei auch Benutzeranpassungen in einem Persistenz-Speicher nutzen, der dann allerdings auf einer internen Festplatte oder einem zusätzlichen USB-Stick gespeichert werden muss. Ein von CD bootendes Puppy durchläuft dabei einfach sämtliche angeschlossene Datenträger und sucht nach Persistenz-Ordnern oder Dateien in deren Hauptverzeichnis. Ungeachtet der technischen Möglichkeit und der Schnelligkeit auf CD ist Puppy aber auf CD nicht ideal, denn für Anpassungen brauchen Sie immer noch ein zweites Medium. Und als reines Livesystem auf CD ohne Persistenz ist Puppy auch nicht ideal, da Sie dann bei jedem Start der unkomfortable „Quick-Setup“-Dialog begrüßt, wo Sie zumindest die deutsche Tastaturbelegung einstellen müssen.

Ideal für Puppies sind USB-Sticks, weil Sie damit das Livesystem plus Speicher für Anpassungen an Ort und Stelle auf einem Datenträger haben. Die Größe des Sticks spielt praktisch keine Rolle: Für die meisten Puppies sind schon 1 oder 2 GB üppig und bieten ausreichend Platz für Nachinstallationen und Anpassungen. Andererseits ist es keine Platzverschwendung, eine heute übliche Stick-Größe mit entsprechender Leistung zu wählen, da der Stick zusätzlich auch als normaler Datenträger genutzt werden kann.

Die Installation aller Puppy-Varianten ist identisch. Die nachfolgende Anleitung zeigt die Einrichtung am Beispiel eines Puppy Tahr („Tahrpup“) auf USB-Stick. Dabei nehmen wir den Umweg über das Puppy Livesystem auf einer CD, weil der Puppy-Installer dies als den Normalfall annimmt und unter dieser Voraussetzung am einfachsten zu durchlaufen ist.

Vom ISO-Abbild zum Puppy auf USB

Schreiben Sie das gewählte ISO-Image zunächst auf eine CD. Alle Puppies passen locker auf CD, eine DVD wäre Verschwendung. Die heruntergeladene ISO-Datei brennen Sie unter Linux mit einem Tool wie Brasero und der Option „Abbild brennen“, unter Windows mit der Freeware Imgburn und der Option „Imagedatei auf Disc schreiben“. Danach booten Sie einen Rechner mit optischem Laufwerk über die CD.

  1. Das Puppy-System wird am Desktop den Dialog „Quick Setup“ anzeigen. Eigentlich brauchen Sie für das temporäre Livesystem keine Einstellungen, aber es kann für die nachfolgende Einrichtung hilfreich sein, die Tastatur auf „de (Germany)“ zu setzen. Wer die Installationsdialoge in Deutsch sehen will, kann auch die Ländereinstellung auf Deutsch setzen und über den Puppy-Paketmanager (unter „Setup“ im Hauptmenü) sogar das langpack_de installieren. Wirklich notwendig ist das nicht, weil dies an dieser Stelle nur temporär bliebe und die englischsprachigen Dialoge im Installer meist klarer sind als die deutschen.
  2. Stecken Sie den USB-Stick ein, der das Puppy aufnehmen soll, und starten Sie über die Menü-Kategorie „Setup“ den „Puppy Universal Installer“ (in einigen Varianten auch nur „Puppy Installer“). Der oberste Eintrag „USB Flash Drive“ ist der richtige. Wenn nur ein Stick angeschlossen ist, wird der Installer diesen anbieten und mit Angabe der Gerätebezeichnung (etwa /dev/sdb1 oder /dev/sdc1) um Bestätigung bitten.

Puppy (Universal) Installer: Dieses Tool des Livesystems ist notwendig für die Einrichtung auf USB-Stick.

  1. An dieser Stelle besteht noch die Möglichkeit, den USB-Stick mit Gparted zu bearbeiten. Notwendig ist die Neupartitionierung nicht, weil auch die Systempartition zusätzlich als ganz normaler Datenspeicher dienen kann. Der Abstecher zu Gparted ist jedoch manchmal nötig, wenn dem USB-Stick das Boot-Flag fehlt. Der Puppy-Installer meldet das, korrigiert es aber nicht selbst. Die Korrektur erledigt dann Gparted nach Rechtsklick auf die Partition und „Markierungen bearbeiten -> Boot“.
  2. Nun folgt die Abfrage, aus welcher Quelle der Puppy Installer die maßgeblichen Systemdateien kopieren soll. In diesem Szenario mit dem Livesystem auf CD können Sie die Option „CD“ wählen.
  3. Der nächste Dialog bietet eine Auswahl von Bootsektoren. Gemäß der Empfehlung scheint mbr.bin die zuverlässigste Wahl. Vor allem aber ist wichtig, überhaupt einen Bootsektor zu wählen, denn die Voreinstellung fährt ohne Bootsektor fort. Damit wäre der Stick nicht bootfähig.
  4. Der Rest des Installer geht bei einigen Puppies grafisch weiter, oft aber im Terminal. Zunächst müssen Sie dem Vorgang noch einmal generell zustimmen, danach erscheint noch eine Option für den künftigen Systemstart, die Sie nach der Empfehlung mit „yes“ oder „ja“ beantworten.

Die nachfolgende Kopieraktion (initrd.gz, sfs-Dateien) ist angesichts der Kompaktheit schnell erledigt. Damit hat das Livesystem auf CD seinen Dienst getan. Starten Sie nun den Rechner mit dem USB-Stick.

Bootsektor nicht übersehen! Als Voreinstellung, falls Sie hier einfach weiterklicken, schreibt der Puppy Installer keinen Bootsektor auf den USB-Stick.

Einrichtung des Puppy-Systems

Auch das Puppy auf USB begrüßt Sie wieder mit dem Dialog „Quick Setup“. Hier lohnt es sich nun, alles sorgfältig einzustellen, erste Anpassungen am Desktop vorzunehmen und im Puppy-Paketmanager das langpack_de oder andere Software nachzuinstallieren. Das Systemtool, solche Änderungen außerhalb des Livesystems zu sichern, also den persönlichen Speicherbereich anzulegen, suchen Sie vergebens. Es startet aber automatisch, sobald Sie das neue Puppy zum allerersten Mal herunterfahren („Exit“ im Hauptmenü). Dann erscheint „Erstmals: Sitzung speichern“ („First shutdown…“). Optik und Wortwahl dieses wichtigen Vorgangs unterscheidet sich bei den Puppy-Varianten erheblich, jedoch ist das Prinzip identisch:

Antworten Sie in jedem Fall mit „Speichern“ (oder „Ja“, „Yes“). Die Auswahl einer Partition entfällt beim USB-Stick, weil das Tool hier sinnvollerweise den USB-Stick als Ziel nimmt. Verwenden Sie als Speichertyp die empfohlene Option „Folder“ („Ordner“), denn dies ist flexibler als eine Speicherdatei mit fixer Größe. Weitere Entscheidungen betreffen die optionale Verschlüsselung des Speichers und einen individuellen Namenszusatz. Danach legt das System den Speicherbereich an, kopiert die bereits angefallenen Daten und fährt herunter.

Die künftige Puppy-Nutzung gestaltet sich äußerst komfortabel: Störende Bremsen wie „Quick-Setup“ und „First shutdown“ entfallen, Software-Nachinstallationen sind durch „Quickpet“ und den „Puppy Package Manager“ schnell und einfach. Für Desktop-Anpassungen ist die Menü-Rubrik „Desktop“ einschlägig, die unter anderem den JWM Configuration Manager anbietet. Joe’s Window Manager ist die typische Puppy-Oberfläche, jedoch gibt es auch Varianten mit LXDE.

Der persönliche Speicherbereich, der alle Änderungen aufnimmt, ist auf Dateiebene unter /mnt/data/ leicht zugänglich und erlaubt damit auch einfache Experimente: Es genügt den kompletten Save-Ordner oder die Save-Datei auf gleicher Ebene und neuem Namen zu kopieren – etwa „tharsave“ als „tharsave-sepp“. Dadurch entsteht praktisch ein neues Benutzerprofil, das Sie mit eigenen Einstellungen ausstatten können. Das Puppy-System wird dann künftig beim Start eine Auswahl der Form

  • 0 none
  • 1 sdd1 /tahrsave
  • 2 sdd1 /tahrsave-sepp

anbieten, was nebenbei auch den Start des puren Livesystems (mit „none“) ermöglicht.

Alle lokalen Laufwerk zeigt Puppy standardmäßig als Desktop-Links an. Netzwerkfreigaben erreichen Sie über das Pnethood-Tool unter „Netzwerk“. Falls eine manuelle Einrichtung des Netzwerks notwendig ist, versammelt das Tool „Internet Connection Wizard“ (unter „Setup“) alle LAN-, WLAN-, Internet-, Proxy- und Firewall-Einstellungen.

Persönlichen Speicher anlegen: Die Meldung oben erscheint automatisch beim ersten Shutdown. Danach gibt es einige Entscheidungen zu treffen. Die Prozedur ist aber nur einmal zu durchlaufen.

Einfache Installationen: Puppy hat sein eigenes Paketformat (PET), macht dem Nutzer die Sache aber mit dem Package Manager und außerdem einer „Quickpet“-Vorauswahl sehr bequem.

Einige Puppy-Varianten im Steckbrief

Der ursprüngliche Entwickler Barry Kauler ist im Ruhestand und arbeitet nur noch sporadisch an Puppy. Seit den Anfangszeiten ab 2003 entstanden unzählige Varianten auf Basis des Buildsystems Woof-CE. Die offizielle Puppy-Familie unterteilt sich in zwei Hauptlinien. Die erste Puppy-Linie nennt sich „Slacko“, das die besonders kompakte Slackware als Systembasis nutzt. Die zweite Hauptlinie namens „Tahrpup“ basiert auf Ubuntu 14.04 LTS „Trusty Tahr“. Daneben gibt es inoffizielle Puppy-Systeme sowie die große Unterfamilie der „Puplets“. Dies sind mit speziellen Software-Paketen ausgestattete Puppy-Varianten, die meist im Puppy-Forum vorgestellt werden (siehe „Puplet for special features“ unter http://puppylinux.org/main/).

Im Allgemeinen fahren Sie am besten mit Puppy Slacko (Slackware) oder Puppy Thar (Ubuntu 14.04). Das auf Ubuntu 16.04 basierende und längst überfällige Xenialpup ist noch Beta. Das teilweise aus Ubuntu 16.04 gebaute Quirky vom Puppy-Gründer Barry Kauler (http://barryk.org/quirky/) ist experimentell und nicht für den Produktiveinsatz empfohlen. Das inspirierende Puppy-Konzept treibt aber allerlei Blüten, die je nach Einsatzzwecke ebenfalls interessant sein könnten:

Lxpup nutzt statt des JWM-Fenstermanagers einen soliden LXDE-Desktop, der für manche Anwender vertrauter ausfällt (https://sourceforge.net/projects/lxpup). Die vorinstallierten Programme fallen mit der Firefox-Abspaltung Palemoon, Mailclient Sylpheed oder Gparted ebenso Puppy-typisch aus wie die große Zahl kleiner System-Tools. Hauptmotiv für Lxpup ist eindeutig der LXDE-Desktop.

Simplicity ist ein Abkömmling Lxpup und geht einen Schritt weiter Richtung Desktop-System. Mit einem fast 600-MB-ISO-Abbild (http://simplicitylinux.org/) übertrifft Simplicity übliche Puppies um das Dreifache, liefert dafür aber ein komplettes Desktop-System unter einer LXDE-Oberfläche (Firefox, Skype, VLC, Libre Office). Aufgrund dieser Software sind die Hardware-Anforderungen etwas höher als bei einem reinen Puppy. Nach unserer Ansicht widerspricht Simplicity dem Konzeptkern der Puppy-Livesysteme, hat aber eine gewisse Popularität.

Macpup ist ein Puppy mit dem ganz hübschen, aber exotischen Enlightenment-Desktop (http://macpup.org) – nur für Enlightenment-Fans! Wer ein pragmatisches Zweitsystem sucht, handelt sich damit nur weitere Komplikationen ein. Immerhin handelt es sich um ein typisches Puppy mit einem nur 220 MB großen Abbild, das sogar für einen ausgewachsenen Firefox Platz findet.

Fatdog ist ein witziger Name für ein kleines Puppy-System, dessen ISO-Abbild etwa 360 MB beträgt (http://distro.ibiblio.org/fatdog/iso/). In der Runde der sonstigen Puppy-Winzlinge darf Fatdog aber in der Tat als dicker Hund gelten. Dies geht in erster Linie auf die erweiterte Software zurück, da bereits ein komplettes Libre Office, ferner Gimp und der VLC an Bord sind. Als Desktop dient LXDE mit Openbox.

Lxpup mit LXDE-Desktop: Outfit und Dialoge der Puppy-Varianten unterscheiden sich oft deutlich, die Arbeitsweise ist aber immer identisch – hier das Anlegen des Savefiles beim ersten Shutdown.

Zurück zur Linux-Übersichtsseite…

Das Heimnetz: Hardware, Tipps und Tools

Der kompakte Beitrag zum lokalen Netzwerk bespricht die typische Hardware für das private Heimnetz und Home Office und die wichtigsten Konfigurationseinstellungen und Netzwerkkommandos für Desktop und Server.

Netzwerke sind Hardware-seitig unglaublich flexibel und ausbaufähig. Linux wiederum ist für das Netzwerken geschaffen und macht als Netzwerk-Client wie als Server eine glänzende Figur. Dieser Beitrag liefert Basiswissen und vertiefende Tipps für ein optimiertes Heimnetz. Dabei geht es ausschließlich um das lokale LAN- und WLAN-Netz mit typischen Geräten, Kommunikationsprotokollen, Freigaben und Serververwaltung. Das öffentliche Netz, das Internet, bleibt komplett außen vor – siehe dazu diesen Artikel: Tipps und Tools fürs Internet

1. Der grafische Network-Manager

Sowohl für Ethernet als auch für WLAN erfolgt die grafische Netzwerkverwaltung unter fast allen Desktop-Distributionen über das Applet des Network-Managers in der Systemleiste. Auf Gnome-affinen Distributionen können Sie die dafür zuständigen Komponenten notfalls auch über

sudo apt-get install network-manager network-manager-gnome

nachinstallieren. In Ubuntu erscheint das Icon in der Systemleiste am oberen Bildschirmrand. Nach einem Klick darauf sehen Sie ein Menü mit einer Liste der verfügbaren Funknetzwerke. Klicken Sie das gewünschte an, geben Sie hinter „Passwort“ den WPA-Schlüssel ein, und klicken Sie auf „Verbinden“. Ist eine Ethernet-Verbindung aktiv, erscheint dieses unter „Kabelnetzwerk“. Im Menü gibt es außerdem die Einträge „Netzwerk aktivieren“ und bei WLAN „Funknetzwerk aktivieren“. Vor beiden muss ein Häkchen gesetzt sein, damit die Verbindung funktioniert.

Bei Fehlfunktionen sollten Sie über „Verbindungen bearbeiten“ die Einstellungen prüfen und gegebenenfalls ändern. Wählen Sie etwa „Kabelnetzwerkverbindung 1“, klicken Sie auf „Bearbeiten“ und gehen Sie auf die Registerkarte „IPv4-Einstellungen“. Hinter „Methode“ sollte hier „Automatisch (DHCP)“ eingetragen sein. Es ist nur in Ausnahmefällen ratsam (Server, Access Points, Netzdrucker), feste IP-Adressen manuell zu konfigurieren, damit das Gerät immer unter der gleichen IP-Adresse erreichbar ist (siehe -> Punkt 9).

Tipp: Der Network-Manager unterstützt keine deutschen Umlaute beim WLAN-Passwort. Vermeiden Sie daher WLAN-Kennwörter mit „ä“, „ö“, „ü“, „ß“ in der Router- oder Access-Point-Konfiguration.

Aktuelle Linux-Systeme nutzen den Network-Manager für den Verbindungsaufbau. Das Tool steuert über „Verbindungsinformationen“ sogar subtile Details wie die MTU-Paketgrößen.

2. Klassische Netzwerk-Konfiguration

Distributionen ohne Network Manager verwenden die klassische Linux-Konfiguration über die Datei /etc/network/interfaces. Deren Einträge haben in jedem Fall Vorrang vor denen des Network-Managers. Fehlerhafte Angaben an dieser Stelle können daher auch den Network-Manager lahmlegen. Standardmäßig enthält die Datei interfaces auf Desktop-Systemen nur die zwei Zeilen

auto lo
iface lo inet loopback

für den Loopback-Adapter (siehe dazu -> Punkt 3).

Für einen Server ohne grafischen Network Manager wären die folgenden Zeilen eine gültige Konfiguration für den Ethernet-Adapter, der hier die feste IP „100“ beziehen soll:

auto eth0
iface eth0 inet static
address 192.168.0.100
netmask 255.255.255.0
gateway 192.168.0.1
dns-nameservers 8.8.8.8

Der Adressraum „192.168.0.x“ muss natürlich angepasst werden, bei Fritzbox-Routern ist „192.168.178.x“ typisch. Spielt die IP keine Rolle (dynamisch über DHCP), dann genügen zwei Zeilen:

auto eth0
iface eth0 inet dhcp

Die Einstellungen werden erst nach einem Neustart wirksam.

3. Netzwerkadapter mit ifconfig im Griff

Das Terminaltool ifconfig ist unentbehrlich für die Anzeige der Netzadapter und beherrscht auch fundamentale Eingriffe. Bei purer Eingabe ifconfig erhalten Sie die IP-Adresse des Geräts, die physikalische MAC-Adresse des Netzadapters, ferner die Download- (RX) und Upload-Datenmenge (TX) seit dem letzten Systemstart. Der Ethernet-Adapter erscheint als „eth0“ (oder „enp6s0“), der WLAN-Adapter als „wlan0“. Die angezeigte „lo“-Schnittstelle mit der IP-Adresse 127.0.0.1 existiert nicht physisch: Bei dieser „lokalen Schleife“ (Loopback) handelt es sich um eine zum lokalen System zurückführende Schnittstelle, womit lokale Prozesse via TCP/IP miteinander kommunizieren.

Wenn ifconfig nur den virtuellen Loopback Adapter „lo“ anzeigt, hat Linux den Ethernet-Adapter Hardware-technisch nicht erkannt. Bei Ethernet-Adaptern ist das so gut wie ausgeschlossen. Was Sie bei WLAN-Adaptern in diesem Fall unternehmen können, lesen Sie im Hardware-Kasten („WLAN-Adapter unter Linux“).

Mit „down“ und „up“

sudo ifconfig eth0 down

schalten Sie einen Adapter, in diesem Fall mit „eth0“ den Ethernet-Anschluss, aus oder wieder ein.

Der nachfolgende Befehl

sudo ifconfig eth0 192.168.0.222

fordert eine neue lokale IP-Adresse vom Router. Dies führt zwar zu einer inkonsistenten Netzkonfiguration, sollte aber nach wie vor den Zugriff auf die Router-Oberfläche ermöglichen. Dort können Sie dann diese Wunsch-IP als feste IP festlegen.

Download- (RX) und Upload-Menge (TX): Ifconfig zeigt unter anderem auch den Datendurchsatz am betreffenden Adapter seit dem Systemstart.

4. WLAN-Konfiguration mit iwconfig und iwlist

Die manuelle Konfiguration des WLAN-Adapters ist nur nötig, wenn Sie einen Headless-Server ohne Monitor, Maus, Tastatur per SSH konfigurieren. Folgende Kombination von Netzwerkkommandos, die allesamt zum Linux-Standard gehören, kann das erledigen:

sudo iwlist scanning
sudo iwconfig wlan0 essid [Netzname] key s:[Passwort]
sudo dhclient wlan0

iwlist zeigt zunächst die verfügbaren Funknetze (Netznamen als „ESSID“), und iwconfig verbindet zum gewünschten Netz: Nach „essid“ folgt der Netzname, nach „key“ das WLAN-Passwort. Da nicht der hexadezimale Schlüssel, sondern das Passwort übergeben wird, muss das mit „s:“ signalisiert werden. Zu guter Letzt bezieht der Rechner mit dhclient eine IP-Adresse vom Router.

Speziell bei Ubuntu-basierten Systemen ist diese Vorgehensweise aber oft erfolglos. Hier empfiehlt sich auch bei späteren Headless-Servern zunächst die Grundkonfiguration des Funknetzes mit dem grafischen Network Manager.

5. LAN-Rechner mit ping prüfen

Ping gehört überall zur Linux-Standardausstattung. Das einfache Tool prüft, ob der aktuelle PC Verbindung zum Router („ping 192.168.0.1“) hat oder ob ein anderer PC im lokalen Netz („ping 192.168.0.10“) erreichbar ist. Neben der schlichten Recherche, ob sich der befragte Host überhaupt meldet, gibt es auch qualitative Aussagen: Im Heimnetz sollten keine verlorenen Datenpakete auftreten („packet loss“) und die Antwortzeiten unter zehn Millisekunden liegen, während Pings ins Web selten unter 20 Millisekunden antworten.
Ping ohne Counter („-c“) läuft endlos, lässt sich aber mit der Tastenkombination Strg-C abbrechen. Ist der Router mit ping nicht erreichbar, hilft oft das Aus- und Einschalten des Netzwerkadapters, um eine neue IP-Adresse zu beziehen.

6. Nmap-Pings an alle Geräte im lokalen Netz

Ping (siehe -> Punkt 5) kann Hostnamen auflösen („ping fritz.box“), übersetzt aber keine IP-Adressen zu Hostnamen. Außerdem kann es – ohne Scriptunterstützung – nur auf eine Adresse losgeschickt werden. Für eine Komplettübersicht im lokalen Netz hilft nmap. Nmap ist in der Regel nicht vorinstalliert, aber mit seinem Paketnamen „nmap“ in allen Repositories erhältlich. Folgende nmap-Kommandos

nmap -sP 192.168.0.1-50
nmap -sP 192.168.0.*

schicken Ping-Anfragen an die ersten 50 und alle 255 Adressen des Adressraum. Der schnelle Ping-Scan zeigt dann alle laufenden Netzgeräte mit Host-Namen und IP-Adresse.
Ohne Ping-Parameter („-sP“) macht nmap sorgfältige und zeitaufwändige Portscans: Sie erhalten zu jedem Rechner Host-Namen, IP-Adresse, MAC-Adresse und die Liste aller offenen Ports. Ist der Vorgang für den gesamten lokalen Adressraum zu langwierig, lässt sich auch ein einzelner PC befragen (nmap 192.168.0.10 oder auch mit Hostnamen nmap raspberry).

Überblick mit nmap: Der Portscanner taugt auch für einfache Ping-Abfragen im gesamten lokalen Adressraum und löst dabei die Host-Namen auf.

7. Netzwerksicherheit mit Nmap-Portscans

Risiken für Ihr Heimnetz entstehen durch offene Ports, die den Zutritt über das Internet in Ihr lokales Netz erlauben. Handelt es sich um Portfreigaben im Router, die Sie selbst eingerichtet haben, dann ist das in Ordnung, wenn nicht, bedeuten offene Ports Alarmstufe rot. Kontrolle über eventuell vergessene Portfreigaben erhalten Sie im Router, so etwa in der Fritzbox unter „Internet -> Freigaben -> Portfreigaben“. Einen objektiven Test, der auch innere Feinde in Form von laufender Schadsoftware entlarvt, können Sie mit nmap realisieren.

Zunächst müssen Sie Ihre öffentliche IP-Adresse ermitteln. Die kennt zum Beispiel Ihr Router („Übersicht“ in der Fritzbox), sie kann aber auch mit einem Tool wie inxi ermittelt werden („WAN IP“ nach Eingabe inxi -i). Die öffentliche WAN-IP, beispielweise 178.23.136.15, prüfen Sie dann mit diesem Kommando:

sudo nmap -Pn 178.23.136.15

Dabei untersucht nmap die Standardports von 1 bis 1000. Sämtliche Ports erfassen Sie mit diesem Befehl:

sudo nmap -Pn -p0-65535 178.23.136.15

Dieser Scan durchläuft alle Ports von 1 bis 65535 und dauert sehr lange. Als Ergebnis sollten Sie, sofern Ihr Netz für das Internet komplett geschlossen sein soll, die Antwort erhalten „All scanned ports are filtered“. Wo immer das nicht der Fall ist und die Ursache unklar, weil dafür keine Portfreigabe im Router vorliegt, gehen Sie mit der angezeigten Portnummer der Sache auf den Grund:

sudo nmap -sV -Pn -p[Nummer] 178.23.136.15

Mit Schalter „-sV“ zeigt nmap an, welches Programm oder welcher Dienst diesen Port benutzt. Ist dieser Prozess unerwünscht, beenden Sie den Verursacher mit einem Taskmanager umgehend (in der „Systemüberwachung“ oder mit top/htop im Terminal) und dauerhaft durch Deinstallieren und Löschen der Programmdateien.

„All ports filtered“: Dieses nmap-Ergebnis stellt sicher, dass Ihr lokales Netz über das Internet nicht erreichbar ist. Offene Ports würde nmap als „OPEN“ melden.

8. MAC-Adressen mit arp ermitteln

Jeder Netzadapter hat eine eindeutige MAC-Adresse der Form C2:22:09:F2:5F:E8 (sechs zwei-stellige Hexadezimalzahlen). Die brauchen Sie zum Beispiel dann, wenn Sie im Router feste IP-Adressen oder Zugangskontrollen einrichten wollen (siehe -> Punkt 9). Der Router selbst kennt und zeigt natürlich sämtliche MAC-Adressen. Am lokalen Rechner zeigt ifconfig (siehe -> Punkt 3) immerhin dessen MAC-Adresse(n) als „Hardware Adresse“ an. Der Befehl arp (Address Resolution Protocol) kann noch mehr:

arp –a

Dies wirft die MAC-Adressen aller in letzter Zeit verbundenen Netzgeräte aus. Da der Arp-Cache seine Daten periodisch verwirft, ist vielleicht momentan genau das gesuchte Gerät nicht in der Liste. Wenn Sie aber vorher einen Ping an das Gerät schicken und dann arp -a befragen, erhalten Sie zuverlässig die MAC-Adresse des entfernten Geräts.

9. Feste IPs im Router einrichten

Server, aber auch Geräte wie Access Points, WLAN-Repeater oder Netzwerkdrucker verdienen eine feste lokale IP-Adresse, damit Sie Konfigurationsoberflächen oder Daten zuverlässig erreichen (etwa via Browser-Lesezeichen oder in Scripts). Die Vergabe fester IP-Adressen erledigt am besten zentral der Router, der die IPs als DHCP-Server vergibt. Der betreffende Punkt kann „DHCP-Reservierung“ oder ähnlich lauten. In der Fritzbox finden Sie diese Möglichkeit unter „Heimnetz –> Netzwerk“. Dort erscheint für die eingetragenen Netzwerkgeräte die Option „Diesem Netzwerkgerät immer die gleiche IP-Adresse zuweisen.“

Dabei kann aber nur die gerade aktuelle IP als künftig konstante IP eingestellt werden. Wenn Sie eine ganz bestimmte andere IP wollen, lassen Sie sich unter „Heimnetz -> Heimnetzübersicht“ die Details des gewünschten Netzgeräts anzeigen und notieren sich die MAC-Adresse („Geräteinformation“). Danach verwenden Sie „Heimnetz -> Heimnetzübersicht -> Netzwerkverbindungen -> Gerät hinzufügen“. Dort können Sie unter Angabe der „MAC-Adresse“ die Wunsch-IP vergeben. Der Router wird melden, dass ihm das Gerät unter einer anderen IP bekannt ist, und Sie müssen mit „OK“ bestätigen, dass Sie die Einstellung überschreiben wollen. Danach sollten Sie das Gerät (oder dessen Netz-Adapter) neu starten.

Feste IP für bestimmte Netzgeräte: Diese Aufgabe löst mancher Lowcost-Router logischer als die Fritzbox – hier ein Dlink-Router unter „DHCP-Reservierung“.

10. Server: Fritz-NAS als zentraler Speicher

Wer „nur“ einen zuverlässigen Datenserver braucht und eine Fritzbox als Router besitzt, braucht nicht notwendig einen Server oder Platinenrechner. Mit der Fritzbox reduziert sich der Einrichtungsaufwand auf ein Minimum: Wenn Sie unter „Heimnetz -> Speicher (NAS)“ die NAS-Funktion über „Speicher (NAS) aktiv“ einschalten, ist sofort der interne Speicher im Netz verfügbar. 512 MB bis 1,5 GB bieten neuere Fritzboxen an internem Speicher an. Das reicht natürlich nicht für einen Datenserver. Sobald Sie aber an einen der beiden USB-Ports einen USB-Datenträger anschließen, wird dieser unter „Heimnetz -> Speicher (NAS)“ angezeigt und kann dort durch die Klickbox aktiviert werden.

Das Fritz-NAS arbeitet wie eine Samba-Freigabe unter Linux: Der Standard-Hostname „fritz.nas“ (Standard-IP ist xxx.xxx.xxx.254) erscheint unter „Netzwerk“ im Dateimanager von Linux- und Windows-PCs, und die Daten lassen sich nutzen, sofern sich der Netzteilnehmer ausweisen kann. Die Einrichtung mindestens eines Benutzerkontos erledigen Sie unter „System -> Fritz!Box-Benutzer“. An dieser Stelle sind differenzierte Schreib- und Leserechte und Ordnerfreigaben möglich wie unter Linux üblich. Standardmäßig gibt die Fritzbox „Alle…verfügbaren Speicher“ mit Lese- und Schreibrecht frei.

Fritz-Datenserver auf der Konfigurationsoberfläche und im Dateimanager: Die Einrichtung eines USB-Datenträgers im Fritz-NAS ist einfacher als jede Server-Lösung.

11. Server-Freigaben mit Samba im Terminal

Wer es sich bequem machen will, wird auch auf einem ferngewarteten Platinenserver ein Serversystem mit einer klickfreundlichen Weboberfläche einsetzen. Erste Wahl für Raspberry & Co ist aktuell die NAS-Distribution Open Media Vault (openmediavault.org). Wirklich notwendig ist ein solcher Überbau für einen einfachen Datenserver im Heimnetz allerdings nicht. Wenige Kommandos im Terminal des Servers oder per SSH auf einem anderen Netzrechner (siehe -> Punkt 13 und 17) genügen, um Netzwerkfreigaben via Samba einzurichten. Voraussetzung ist zunächst ein installiertes Samba-Server-Paket (bei Server-Distributionen meist schon vorinstalliert):

sudo apt update
sudo apt upgrade
sudo apt install samba-common samba

Jeder Benutzer, der auf Freigaben zugreifen darf, muss ein Systemkonto mit Passwort besitzen:

sudo adduser sepp

Das Benutzer-Passwort wird nach Eingabe dieses Befehls automatisch abgefragt.
Ferner muss der Benutzer zusätzlich ein Samba-Kennwort erhalten, denn Samba hat seine unabhängige Kennwortverwaltung:

sudo smbpasswd -a sepp

Danach genügt folgender Befehl, um ein Verzeichnis dauerhaft über das Netzwerk freizugeben:

sudo net usershare add sepp /home/sepp "" sepp:f

Hier wird das Verzeichnis /home/sepp als Freigabe mit dem Namen „sepp“ für den gleichnamigen User im Netzwerk freigegeben.

12. Samba-Konfiguration in der Datei smb.conf

Samba verwendet als einzige Konfigurationsdatei /etc/samba/smb.conf. Darin sind die Basis-Einstellungen für den Samba-Server und auch die Freigaben festgelegt. Das Editieren der smb.conf ist umfassender und oft auch bequemer als net-Befehle auf der Kommandozeile:

sudo nano /etc/samba/smb.conf

Arbeitsgruppe: Mit „workgroup=WORKGROUP“ unter „[global]“ legen Sie die Arbeitsgruppe fest. Windows verwendet die Gruppe ebenfalls standardmäßig, sodass Sie die Einstellung belassen können. Wenn Sie in Ihrem Netzwerk eine anders benannte Gruppe verwenden, ändern Sie den Wert entsprechend. Für den Zugriff auf die Freigaben ist die Arbeitsgruppe nicht wesentlich, jedoch zeigen Linux-Datei-Manager nicht einfach alle Rechner mit Freigaben in einer Liste an, sondern organisieren sie in Arbeitsgruppen unterhalb von „Windows-Netzwerk“. Sie sparen sich unnötige Mausklicks, wenn Sie alle Rechner in derselben Gruppe unterbringen.

Home-Verzeichnisse freigeben: Weiter unten in der smb.conf gibt es einen auskommentierten Abschnitt, der mit „;[homes]“ beginnt. Entfernen Sie die Kommentarzeichen (Semikolon), um die Home-Verzeichnisse aller Benutzer standardmäßig freizugeben. Soll auch der Schreibzugriff erlaubt sein, ändern Sie „read only = yes“ auf „read only = no“. Wenn ein authentifizierter Benutzer auf den Server zugreift, sieht er nur sein eigenes Home-Verzeichnis als Freigabe.

Allgemeine Freigaben: Eine neue Freigabe für ein beliebiges Verzeichnis lässt sich über drei Zeilen realisieren, die Sie am Ende der Datei smb.conf einfügen:

[data]
path = /media/data
writeable = no

In diesem Beispiel wird das Verzeichnis „/media/data“ unter der Bezeichnung „data“ freigegeben. Der Ordner muss existieren und die Benutzer müssen auf der Ebene des Dateisystems zumindest Leserechte besitzen.

Achtung: Änderungen in der smb.conf werden erst wirksam, wenn Sie den Samba-Dienst mit

sudo service smbd restart

neu starten:

Samba konfigurieren: Alle nötigen Einstellungen für den Samba-Server und die Netzwerk-Freigaben nehmen Sie in der Datei /etc/samba/smb.conf vor.

13. SSH-Serverwartung mit Linux und Mac OS X

Kein Server ohne Secure Shell (SSH)! Selbst wenn Sie einen (Raspberry-) Server mit Webserver und freundlicher Konfigurationsoberfläche betreiben, bleibt die SSH-Wartung auf der Kommandozeile das umfassendste, schnellste und direkteste Werkzeug. Einzige Voraussetzung auf dem Server ist ein installierter Open-SSH-Server (auf typischen Server-Distributionen wie Cent OS, Ubuntu Server oder Open Media Vault standardmäßig installiert und aktiv). Wo er noch fehlt, ist das mit

sudo apt-get install openssh-server

leicht zu korrigieren.
Die Client-Komponente für den Fernzugriff bringt jedes Linux- und Mac-System mit. Dort genügt dann der Befehl

ssh [benutzer]@[IP-Adresse]

für die Anmeldung auf dem entfernten Server, also etwa:

ssh root@192.168.0.10

Beim allerersten Zugriff auf einen Server ist dem Client-System der Rechner noch nicht bekannt, und Sie müssen die Verbindung mit „yes“ bestätigen. Künftig entfällt diese Abfrage, weil der Fingerabdruck des Servers auf dem Client unter .ssh/known_hosts gespeichert wird. Nach Erlaubnis der Verbindung mit „yes“ erfolgt die Abfrage des User-Kennwort. Auf dem Remote-Terminal können Sie alle Befehle verwenden wie in einem lokalen Terminal. Sie bearbeiten Konfigurationsdateien, installieren Programme mit apt-get oder versorgen das System mit Updates. Der Befehl exit oder die Tastenkombination Strg-D beenden die SSH-Verbindung.

14. SSH-Datenaustausch mit dem Midnight Commander

Der Midnight Commander (MC) erlaubt unter Linux und Mac OS den direkten Datenaustausch zwischen Server und Client (anstatt über scp-Kommandos oder auf dem Umweg von Samba-Freigaben). Es beherrscht nämlich selbst SSH über die Option „Shell-Verbindung“ in den Menüs „Links/Rechts“. Wie bei ssh auf der Kommandozeile geben Sie hier den Servernamen oder die IP-Adresse an, optional bereits mit dem gewünschten User (etwa: root@192.168.0.10). Nach Eingabe des Kennworts zeigt der Midnight Commander in einer Fensterhälfte das Dateisystem des Servers, in der anderen das des zugreifenden Client – Sie können als root sofort Dateien im gesamten Dateisystem austauschen.

Der MC erwartet die Kommunikation über den SSH-Standardport 22. Für abweichende Ports gibt es eine spezielle Lösung: Legen Sie auf dem zugreifenden Linux-Client-System (nicht auf dem Server!) unter ~/.ssh die Datei „config“ neu an. Dort definieren Sie einen oder auch mehrere Server in folgender Weise:

Host raspi
Hostname 192.168.0.20
Port 12345
User root

Ab sofort genügt es, im MC beim Eingabefeld der „Shell-Verbindung“ als Host den Namen „raspi“ einzugeben. Alle übrigen Infos über IP, Port, User liest der MC aus der config-Datei.

Der Midnight Commander beherrscht SSH und bringt das Dateisystem des Servers direkt zum SSH-Client. Links sehen Sie den bereits verbundenen Server, rechts den Client-PC.

15. Linux-Dateimanager und Netzressourcen

Linux-Dateimanager wie Nautilus (Ubuntu) oder Nemo (Mint) können mit allen Netzressourcen inklusive Samba, FTP, Webdav und SSH umgehen. Wenn Sie in der Navigationsspalte auf  „Netzwerk“ gehen, werden die Netzrechner angezeigt, Windows- und Samba-Freigaben unter „Windows-Netzwerk“. Über die Adresszeile (editierbar nach Strg-L) können Sie direkte Serveradressen eingeben. Bei Windows- und Samba-Freigaben verwenden Sie „smb://[Server]/[Freigabename]“, wobei statt „[Rechner]“ immer auch die IP-Adresse des Servers funktioniert. Bei der Fernwartung von Servern mit SSH bieten Dateimanager oft komfortablere Bearbeitungsmöglichkeiten als das SSH-Terminal. Eine typische Adresse im Dateimanager könnte so lauten:

ssh://root@192.168.0.8[:Port]

Die Angabe der Portnummer ist nur notwendig, wenn der Port vom Standard „22“ abweicht. Nach der Anmeldung kopieren und bearbeiten Sie Daten bequem und sicher direkt im Dateimanager über das Protokoll SFTP.

Mit dem grafischen Dateimanager auf dem SSH-Server: Desktop-Dateimanager wie hier Nemo unter Linux Mint beherrschen das SSH-Protokoll ebenso wie Samba oder FTP.

16. Grafische Programme über SSH (X11-Forwarding)

Sofern es auf dem Server grafische Programme gibt, lassen sich diese auch über SSH starten und auf dem Client-PC anzeigen. Unter Linux als zugreifender Client ist der Aufwand am geringsten: Hier verwenden Sie beim SSH-Aufruf einfach den Schalter „-X“ (Großschreibung!):

ssh –X root@192.168.0.10

In der SSH-Konsole starten Sie dann etwa mit thunar oder gedit das gewünschte, grafische Programm.
Der SSH-Client von Mac OS X unterstützt nur die pure Kommandozeile. Für grafisches X11-Forwarding ist die zusätzliche Komponente XQuartz erforderlich (http://xquartz.macosforge.org/landing/).

17. SSH-Clients unter Windows (Putty / Xming)

Wenn Sie einen Linux-Server mit einem Windows-PC warten wollen, sind Sie auf Putty oder seinen fast identischen Klon Kitty angewiesen (auf Heft-DVD, Downloads und Infos unter www.putty.org und www.9bis.net). Kitty unterscheidet sich dadurch, dass es die automatische Übergabe des Passworts erlaubt („Connection -> Data“) und damit eine automatische Anmeldung, ferner dass es die Server-Daten in Klartextdateien unter \Kitty\Sessions ablegt (statt in der Windows Registry).

Putty/Kitty bieten die komfortable Verwaltung mehrerer Server. Die Basiskonfiguration ist einfach: Geben Sie unter „Host Name“ den Rechnernamen oder die IP-Adresse des Servers an. Mit „Connection type: SSH“ und dem vorgegebenen Standardport 22 können Sie sich mit „Open“ sofort verbinden. Für häufigeren Zugriff lohnt es sich, unter „Saved Sessions“ eine aussagekräftige Bezeichnung zu verwenden, „Appearance“, „Color“ und „Data“ (Benutzer) einzustellen und dies mit „Save“ dauerhaft zu speichern. Unter „Window -> Translation -> Remote character set“ sollten Sie den Eintrag „UTF-8“ wählen, damit Sonderzeichen und Linien in der SSH-Konsole korrekt angezeigt werden. Putty/Kitty dienen ausschließlich als SSH-Vermittlungsclient und Serververwaltung, die eigentliche Arbeit geschieht wie unter Linux im Terminal.

Grafische Programme über X11-Forwarding: Auch unter Windows bringen Sie grafische Programme des Servers auf den Desktop. Neben Putty/Kitty benötigen Sie dazu noch den kostenlosen X-Server Xming (http://sourceforge.net/projects/xming/). Xming muss laufen, bevor Sie die SSH-Session starten. Unter Putty/Kitty aktivieren Sie die maßgebliche Option unter „Connection -> X11 -> Enable X11 forwarding“ und tragen als „X display location“ die Angabe „localhost:0“ ein. Sichern Sie die Konfiguration mit „Session -> Save“. Die so gestartete SSH-Sitzung erlaubt wie unter Linux den Aufruf von grafischen Programmen.

Putty/Kitty unter Windows: Die Angabe der IP-Adresse und des Ports (Standard 22 ist voreingestellt) genügen. Benutzer und Kennwort werden dann bereits in der Konsole abgefragt.

Netzwerk-Hardware

Nachfolgend geht es um den Umgang mit der wichtigsten Netzwerk-Hardware, Optionen des Netzwerkausbaus und wichtige Konfigurationsmöglichkeiten. Ein Großteil dieser Infos gilt Betriebssystem-unabhängig: Für Router, Switch, Access Point, Repeater, Powerline-Adapter spielt das System eines Netzwerkgeräts keine Rolle.
Generell gilt im Netzwerk noch deutlicher als anderswo: Wenn die Hardware unzureichend, veraltet oder defekt ist, helfen keine Software-Tipps. Insbesondere bei diffusen Phänomenen eines zeitweise funktionierenden, aber immer wieder unterbrechenden Netzwerks sind Fehleranalyse und Austausch der Komponente alternativlos. Ein stabil langsames Netz ist hingegen nur eine Frage der Toleranz: Ausbaumöglichkeiten gibt es genug.

Die Router-Adresse

Die zahlreichen Router-Funktionen lassen sich in dessen Konfigurationsoberfläche über den Browser steuern. Dessen IP-Adresse lautet oft 192.168.178.1 oder 192.168.0.1, ist aber auch leicht zu ermitteln. Der Befehl

ip route show

zeigt die Adresse nach „default via …“ an. Im Prinzip genügt auch der Befehl ifconfig, wenn Sie im vierten Block der IPv4-Adresse statt der angezeigten Ziffer (die IP des aktuellen Geräts) die „1“ einsetzen.

Der Router zeigt eine wichtige Geräteübersicht mit allen Gerätenamen, IP- und MAC-Adressen (in der Fritzbox unter „Heimnetz -> Heimnetzübersicht“). Einige weitere fundamentale Router-Optionen wie die Vergabe von festen IP-Adressen oder den Hinweis auf das Fritzbox-NAS finden Sie im Haupttext (-> Punkt 9 und 10).

Der Gigabit-Switch

Im lokalen Netz verläuft nicht der gesamte Datenverkehr durch den Router: Wenn in einem Raum Kabelnetz verfügbar ist und dort ein Netzwerk-Switch mehrere Endgeräte verbindet, dann regelt der Switch den Datenaustausch dieser Geräte direkt – ohne Umweg zum Router und vor allem ungeachtet des sonstigen Netzdurchsatzes. Es wäre also falsch, im Hinblick auf die allgemeine Netzwerkleistung (Fast Ethernet, Powerline, WLAN?) auf einen Gigabit-Switch zu verzichten. Wenn die angeschlossenen Clients Gigabit-Ethernet beherrschen, lässt sich der Datenaustausch dieser Geräte erheblich optimieren.

WLAN-Adapter unter Linux

Externe WLAN-Adapter an USB sind nicht immer Linux-kompatibel. Wer Treiberproblemen aus dem Weg gehen will, kann sich an die folgenden preiswerten Empfehlungen halten (Preise bei amazon.de und conrad.de, Dezember 2016):

Edimax EW-7811UN Wireless USB Adapter (6,80 €)
Asus N10 Nano WLAN-Stick (10,15 €)
TP-Link TL-WN823N N300 Mini WLAN USB Adapter (10,00 €)
CSL 300 Mbit/s USB 2.0 WLAN Stick (12,50 €)
Fritz!Wlan USB Stick-N v2.4 (22,99 €)

Viele weitere WLAN-Adapter sind Linux-tauglich oder werden es nach gewisser Handarbeit. Eine Übersicht für Ubuntu-basierte Systeme (incl. Linux Mint) gibt die Seite https://wiki.ubuntuusers.de/WLAN/Karten/.

Troubleshooting: Wenn Linux keinen Treiber für den WLAN-Chipsatz eines Notebooks oder für einen USB-WLAN-Adapter anbietet, bleibt die Netzwerkschnittstelle unerkannt und der Network Manager an der grafischen Oberfläche kann keine Funknetze anbieten. Dann gilt es herauszufinden, mit welchem Chipsatz ein Gerät arbeitet. Bei Netzwerkkarten und internen Chips gehen Sie im Terminal

lspci |grep -i network

ein: Sie erhalten eine Liste aller Netzwerkgeräte im PCI-Bus mit Hersteller, Typenbezeichnung und Revisionsnummer. USB-Adapter sind weniger gesprächig. Eventuell zeigt der Stick selbst eine genaue Typenbezeichnung inklusive Revisionsnummer. Notfalls hilft der Befehl lsusb. Der zeigt Hersteller und Geräte-ID im Format XXXX:YYYY:

BUS 003 Device 004: ID 2001:3c15 D-Link Corp.

Der Teil vor dem Doppelpunkt bezeichnet den Hersteller (XXXX), die darauf folgende Zeichenkette (YYYY) ist das Gerät, in diesem Fall „3c15“. Beides ist auf der Seite www.linux-usb.org/usb.ids zu entschlüsseln. Nutzen Sie hier die Suchfunktion im Browser, um den exakten Gerätenamen mit Revisionsnummer anhand der ID zu ermitteln. Die Nummer ist wichtig, da viele Hersteller verschiedene Chipsätze verbauen, ohne die Typenbezeichnung zu ändern.

Mit der exakten Typenbezeichnung ist viel erreicht: Damit kann eine gezielte Suche nach Linux-Treibern starten. Erste Anlaufstelle ist nicht der Hersteller, sondern das Supportforum der verwendeten Distribution. Eine der besten Ressourcen im Web ist die schon genannte Adresse http://wiki.ubuntuusers.de/WLAN/Karten mit Hinweisen und Installationsanleitungen. Etliche Module für WLAN-Chipsätze gibt es für verbreitete Distributionen als fertiges Paket. Dann ist der Modulname über den Paketmanager der Distribution zu finden.

WLAN-Repeater einrichten

Ein Repeater vergrößert die Reichweite des Funksignals. Die je nach Ausstattung und Sendeleistung zwischen 20 und 100 Euro teuren Geräte sind die einfachste Methode, mangelhaftes WLAN zu verbessern. Leistungstechnisch sind aber andere Alternativen überlegen (siehe unten: Access Point, Powerline).

Falls es für eine Repeater-Ersteinrichtung keine WPS-Option gibt, können Sie das Gerät auch manuell einrichten. Dazu stecken Sie das Gerät in der Nähe eines PCs in eine Steckdose. Danach klicken Sie unter Linux auf den Network-Manager in der Systemleiste. Hier sollte ein zusätzliches Netz mit dem Namen des Repeaters erscheinen, mit dem Sie sich „Verbinden“. Der Sicherheitsschlüssel lautet oft „00000000“, ein eventuell abweichendes Standardkennwort verrät das Doku-Heftchen. Danach laden Sie die Repeater-Konfigurationsoberfläche im Browser. Netzwerknamen wie etwa „fritz.repeater“ funktionieren nicht immer. In diesem Fall müssen Sie die IP-Adresse des Repeaters eingeben, die Sie über die Liste der WLAN-Geräte im Router herausfinden. Einzige fundamentale Einstellung in der Konfiguration ist die Wahl des Funknetzes, das der Repeater verstärken soll. Aktivieren Sie in dieser Liste den Namen Ihres Netzes, und geben Sie das Kennwort für dieses Funknetz ein.

Bei der automatischen Ersteinrichtung übernehmen Repeater den Netznamen (SSID) der Basisstation. Das ist von Nachteil, wenn Sie mit Tablets oder Smartphones in der Wohnung unterwegs sind: Viele Geräte wechseln zwar automatisch zum Sender mit der optimalen Signalstärke, aber längst nicht alle und nicht alle schnell genug. Daher ist es besser, selbst entscheiden zu können, mit welchem WLAN-Sender man sich verbindet. Dazu sollte der Repeater einen eigenen Namen melden wie etwa „Repeater“. Dies lässt sich in der Konfigurationsoberfläche einstellen, etwa beim Fritz Repeater unter „WLAN -> Funkeinstellungen“.

Bei einem Repeater besteht wenig Tuningbedarf, aber es ist immer besser, wenn Sie die Konfigurationsoberfläche über eine feste IP erreichen. Geräte wie der Fritz Repeater bieten diese Möglichkeit nicht an. Die feste IP müssen Sie daher im Router definieren, wie im Haupttext unter -> Punkt 9 beschrieben.

WLAN-Access-Points einrichten

Wo das Router-Funknetz wichtige Räume nicht abdeckt, verwenden Sie an diesem Standort vorzugweise einen Access Point. Der bietet für etwa 40 Euro aufwärts deutlich besseren Datendurchsatz als ein Repeater, setzt allerdings voraus, dass am betreffenden Ort ein Zugang zum Kabelnetz besteht. Ob es sich dabei um eine direkte Kabelvernetzung handelt oder um eine Powerline-Brücke, spielt keine Rolle.

Ein Access Point wie etwa der abgebildete D-Link DAP-2310 (circa 65 Euro) wird über seinen Ethernet-Port mit CAT-Kabel am geeigneten Ort mit dem Kabelnetz verbunden. Sobald angeschlossen, lässt sich der Access Point über seine IP-Adresse am PC im Browser konfigurieren. Access Points nehmen sich per Werkseinstellung eine IP, die das Handbuch verrät, aber auch in der Geräteliste des Routers leicht zu finden. Mit der IP-Adresse laden Sie im Browser die Konfigurationsoberfläche des Access Points. Ab Werk bringt Sie eventuell der Benutzer „admin“ und leeres Kennwort in die Konfiguration. Im Zweifel sind die Zugangsdaten im Handbuch vermerkt. Sorgen Sie dann dafür, dass der „admin“ ein echtes Kennwort erhält und das Gerät künftig eine selbstdefinierte, feste IP (das geht sowohl in der Gerätekonfiguration als auch zentral im Router).

Das Einrichten des neuen Funknetzes geschieht unter „WLAN“, „Wireless“ oder „Drahtlos“ und erfordert die üblichen WLAN-Infos – also einen Netzwerknamen (SSID), den Verschlüsselungstyp sowie das Zugangskennwort. Danach können sich mobile Geräte zum  neuen Funknetz verbinden oder je nach Standort zur Basisstation. Verwenden Sie besser klar unterscheidbare SSID-Namen für das Router-Funknetz und für dasjenige des Access Points.

Repeater mit Ethernet-Port

Wenn Sie in Ihrem Netzwerk eindeutig auf WLAN setzen, kann sich die Situation ergeben, dass Sie punktuell eine Ethernet-Anbindung brauchen: Das wird etwa notwendig, wenn Sie fernab vom Router einen Netzwerkdrucker verwenden möchten, der kein WLAN, aber einen Ethernet-Port anbietet. Ein weiteres Beispiel wäre ein Linux-Rechner, der eine Kabelverbindung nutzen soll, um einem Treiberproblem mit WLAN aus dem Weg zu gehen.

Die einfachste Lösung für diese Aufgabe ist ein WLAN-Repeater mit zusätzlichem Ethernet-Port ab circa 20 Euro bis 100 Euro (je nach Ausstattung und Sendeleistung). Sie stecken den Repeater einfach am gewünschten Ort in die Steckdose und verbinden Repeater und Drucker oder PC mit einem CAT-Netzkabel. Leistungsstärker, kaum teurer, aber geringfügig aufwändiger ist der Einsatz zweier Powerline-Adapter (etwa ab 50 Euro).

Altgeräte als Repeater/Access Point

Besitzen Sie neben einer als Router genutzten Fritzbox noch eine ausgediente Fritzbox (auch „Speedport“), dann können Sie sich den Kauf eines Repeaters sparen. Die Geräte ergänzen sich als Basisstation und Repeater und bieten die Zusammenarbeit in der Konfigurationsoberfläche sogar direkt an. Die Option finden Sie unter „Erweiterte Ansicht“ im Menü „WLAN / Repeater“. Dort stellen Sie ein, was als Basis und was als Repeater arbeiten soll.

Beim Einsatz als Access Point gibt es keine Einschränkungen hinsichtlich des Geräteherstellers. Hier arbeiten auch Router und Altgeräte unterschiedlicher Hersteller zusammen: Schließen Sie den alten Router mit CAT-Kabel an das Kabelnetz an. Dessen Konfigurationsoberfläche erreichen Sie dann über seine IP-Adresse im Browser. Hier stellen Sie seine Funktion als DHCP-Server ab und auch sonst am besten alle Funktionen außer WLAN. Im Übrigen verfahren Sie wie bei einem Neugerät, definieren also SSID, Verschlüsselungstyp und Zugangskennwort. Auch hier empfehlen wir, unter „LAN“ (oder ähnlich) eine feste IP anzufordern, um den Zugang in die Konfiguration zu vereinfachen.

Einige Router zeigen in der Konfiguration eine explizite Option „Internetzugang über LAN“ oder ähnlich, die Sie aktivieren müssen. Andere Altgeräte wie die alten Speedports (Telekom-Klons der Fritzbox) lassen jeden Hinweis auf diese Einsatzmöglichkeit vermissen, arbeiten aber trotzdem einwandfrei als Access Points.

Powerline-Ethernet

Powerline ist eine Alternative zu WLAN oder zur Ethernet-Verkabelung. Aus Sicht des Endgeräts ist Powerline eine Ethernet-Verbindung. Das bietet gegenüber WLAN den Vorteil, dass Netzanmeldung und alle Treiberprobleme entfallen. Für den Datentransport wird die Stromleitung genutzt. Starterkits mit zwei Adapter und 500 MBit/s gibt es ab etwa 40 Euro, die aktuell schnellsten 1200 MBit/s-Adapter ab 85 Euro (AVM), besser mit Durchreichesteckdose für etwa 120 Euro (Devolo). Im Idealfall kommen die Adapter allerdings allenfalls auf 40 bis 50 Prozent der theoretischen Leistung, in ungünstigen Fällen auch nur auf 10 bis 20 Prozent. Fast-Ethernet-Leistung (100 MBit/s) sollte aber mit den schnellsten Adaptern überall zu erreichen sein. Wenn man bei einem Hersteller bleibt, sind Adapter unterschiedlicher Geschwindigkeiten (200, 500, 1200 MBit/s) zu hundert Prozent kompatibel.

Powerline-Adapter kommen in die Steckdose. Verwenden Sie nur Wandsteckdosen (keine Steckerleisten), und schließen Sie Steckerleisten über die Durchreiche des Adapters an. Die Einhaltung dieser und weiterer Empfehlungen der Hersteller ist keine Pedanterie: Nach unserer Erfahrung kann sich der Datendurchsatz bei einer optimalen Anschlussvariante gegenüber einer fehlerhaften verdreifachen (!). Empirisches Ausprobieren und Messung durch Kopieren großer ISO-Dateien hilft.

Den einen Adapter verbinden Sie per Ethernet-Kabel mit dem DSL-Router, den zweiten Adapter mit dem Endgerät (PC oder Switch). Bei der Ersteinrichtung drücken Sie innerhalb von zwei Minuten den Verschlüsselungsknopf am Gehäuse (bei älteren Devolo-Adaptern auf der Unterseite neben dem Ethernet-Port, bei neueren an der rechten Seite unten). Die Geräte handeln dann einen Code aus, über den sie sich künftig automatisch verbinden. Bei einem weiteren, späteren Ausbau stecken Sie den neuen Adapter an, drücken dann erst den Verschlüsselungsknopf auf einem der älteren Adapter und danach den Knopf auf dem neuen.

WLAN über Powerline

Powerline-Adapter können auch das Funknetz ausbauen. Ein Adapter wie der Devolo DLAN 500 Wifi (802.11n) für etwa 55 Euro eignet sich vor allem dort, wo schon eine Powerline-Basis vorliegt. Es muss mindestens ein weiterer normaler Powerline-Adapter per Ethernet mit dem Router verbunden sein, mit dem sich der Wifi-Adapter dann verbinden kann. Der Wifi-Erweiterungsadapter arbeitet wie ein Access Point und hat vergleichbare Funktionen (Gastnetz, Kindersicherung, Zeitschaltung).

Die Ersteinrichtung erfolgt durch Drücken der Verschlüsselungstaste – erst auf einem normalen Adapter, dann auf dem neu einzurichtenden Wifi-Adapter. Ist das Gerät auf diese Weise angemeldet, kommen Sie über die IP-Adresse an die Konfigurationsoberfläche. Beim genannten Devolo-Adapter legen Sie die üblichen Einstellungen wie SSID (Netzwerkname), WPA/WPA2 und das Kennwort unter „WLAN-Konfiguration -> Access Point“ fest. Auch hier empfehlen wir zur besseren Kontrolle eine vom primären Router-WLAN abweichende SSID.

Netzwerkdrucker

Drucker gehören zu den unkomplizierten Peripheriegeräten. Viele Modelle benutzen standardisiertes PCL (Printer Command Language) oder Postscript. Damit ist der Druck ohne genau passenden Druckertreiber möglich. Multifunktionsgeräte sind problematischer, da sie für jede Funktion einen Treiber benötigen. Nicht jedes Modell läuft mit allen Funktionen unter Linux.

Netzwerkdrucker richten Sie über „Systemeinstellungen –> Drucker –> Hinzufügen“ ein (Ubuntu/Mint). Unter „Neuer Drucker“ gehen Sie auf „Netzwerkdrucker“ und warten Sie eine oder zwei Minuten. Taucht der Drucker nicht von alleine auf, gehen Sie auf „Netzwerkdrucker finden“. Geben Sie hinter „Host“ den Namen oder die IP-Adresse des Druckers ein, und klicken Sie auf „Suchen“. Wird der Drucker gefunden, versucht Linux das Modell zu ermitteln und zeigt unter „Verbindung“ etwa „HP Linux Imaging and Printing (HPLIP)“ an. Nach weiteren optionalen Abfragen klicken Sie zum Abschluss auf „Anwenden“.

Für Druckerfreigaben von Windows-PCs gehen Sie unter „Neuer Drucker“ auf „Windows Drucker via SAMBA“. Nach „smb://“ tragen Sie den Pfad zur Windows-Freigabe in der Form „PC-Name/Drucker-Name“ ein. Eventuelle Leerzeichen in Druckerbezeichnungen müssen durch „%20“ ersetzt werden. Falls nötig, müssen Sie Benutzernamen und Kennwort zur Anmeldung auf dem Windows-PC angeben und diese Kontoinformationen auch unter „Authentifizierungs-Details jetzt festlegen“ eintragen. Dann klicken Sie auf „Vor“, wählen den Hersteller des Druckers und dann das Modell. Wenn mehrere Treiber angeboten werden, wählen Sie den „empfohlenen“.

Zurück zur Linux-Übersichtsseite…

SKYPE (u. a. Apps) in Windows 10 De-Installieren

Windows-Apps, die nur auf der Festplatte rumliegen, stören mich nicht. Anders steht es um Apps wie Skype, die mit mehreren Unterprozessen standardmäßig starten und CPU und Festplatte beschäftigen, ohne dass ich sie bräuchte.

Über die Systemsteuerung („Programme und Features“) lassen sich nur traditionelle Desktop-Programme entsorgen, aber nicht die „Modern Apps“. Erfreulicherweise bietet die Powershell eine Methode. Dazu muss die Powershell mit Administratorrechten laufen („Als Administrator ausführen“).

Der Befehl für Skype lautet dann so:

Get-AppxPackage *skypeapp* | Remove-AppxPackage

Die Namen weiterer Kandidaten, die man eventuell loswerden will, erfährt man (nach Hotkey Windows-I) unter „Einstellungen -> Apps -> Standard-Apps -> Standard-Apps nach Protokoll auswählen“. Einschlägig ist hier die Angabe neben „URL:“

Ubuntu Server mit Openbox

Wer einen Linux-Desktop so klein und schlank halten will wie möglich – aus Prinzip oder angesichts schwächerer Hardware  – kann etwa ein 32-Bit-Lubuntu wählen. Die Distribution stellen keine Anforderung an den Grafikchip und kommt schon mit einer CPU der Pentium-III-Klasse oder AMD Athlon zurecht. Für Lubuntu reichen 512 MB Arbeitsspeicher.

Lubuntu mit seinem LXDE-Desktop ist mit einem einfachen Startmenü und seiner Systemleiste pragmatisch ausgelegt. Die Systemleiste (lxpanel) ist aber nach Rechtsklick mit grafischer Hilfe optisch wie inhaltlich gut anpassbar und beliebig zu positionieren („Leisteneinstellungen -> Geometrie“). Dabei gelingen Leistenanpassungen im Vergleich zu Xubuntu und Ubuntu Mate einfacher, insbesondere bei vertikaler Anordnung. Für das Erscheinungsbild der Fenster und Schriftgrößen gibt es im Tool obconf („Einstellungen -> Openbox Konfiguration Manager“) diverse Themen und Optionen. Das Aufmacherbild zu diesem Artikel zeigt, dass Lubuntu nach einigen Anpassungen einen konservativen, aber sehr wohl attraktiven Desktop bieten kann. Typische Desktop-Nutzer werden aber an einigen Nachinstallationen nicht vorbeikommen: So kann der angestammte Dateimanager pcmanfm unter Lubuntu keine Netzlaufwerke mounten, was den Ersatz durch Nautilus nahelegt. Lubuntu mit dem überaus schlanken Openbox-Fenstermanager beansprucht nach der Anmeldung bescheidene 150 MB für System plus Oberfläche (bei 1 GB RAM).

Manueller Ausbau des Ubuntu Server: Geht Ubuntu noch sparsamer als mit Lubuntu? Gewiss und deutlich – allerdings nicht anstrengungslos. Ausgangspunkt ist die Web-Installation des Ubuntu Server in der 32-Bit-Ausführung über das mini.iso (Download der 32-Bit-Variante unter http://goo.gl/mSa5lQ). Der Installer ist textbasiert, entspricht aber inhaltlich genau dem grafischen Ubuntu-Installer. Kabelnetz und entsprechende Auswahl der Netzwerkschnittstelle beim Setup ist dringend zu empfehlen, weil das Setup viel aus dem Internet nachlädt. Eine instabile Internetverbindung verzögert das Setup nicht nur, sondern kann auch zu dessen Scheitern führen.

Ein Ubuntu Server ohne Auswahl aller Zusatzpakete fordert gerade mal 45 MB RAM, bootet aber erst mal nur in die virtuelle Textkonsole. Die Web-Installation bietet gegen Ende den Dialog „Softwareauswahl“. Unter anderem gibt es hier diverse Desktops in unterschiedlicher Ausführung – etwa auch ein „Lubuntu minimal“. Dies reduziert aber nur die Software-Ausstattung, sehr viel RAM-Ersparnis ist damit nicht zu erreichen.

Die harte Variante: Sie installieren Ubuntu Server fast nackt, wobei die „Standard-Systemwerkzeuge“ und der SSH-Server nie schaden können. Danach rüsten Sie einen minimalen Desktop manuell in der Textkonsole nach. Sparsamste Option ist Openbox mit ein paar Zutaten (eine Zeile):

sudo apt install openbox obconf obmenu lxterminal  
     tint2 tint2conf nitrogen lxappearance

Absolut notwendig sind nur openbox, obconf und obmenu. Lxterminal (oder auch xfce4-terminal) ist ein grafisches Terminal, Tint2 eine Systemleiste, Nitrogen ein Tool für Hintergrundbilder und Lxappearance ein Feineinstellungstool für grafische Fenster, während die grundlegende Optik das Tool Obconf erledigt (Openbox Konfiguration Manager).

Die grafische Oberfläche starten Sie nach der Anmeldung auf der Textkonsole mit

startx

Ein Rechtsklick auf dem Desktop zeigt das spartanische Menü, das Sie mit dem grafischen Tool obmenu ausbauen können. Die Systemleiste Tint2 lässt sich mit dem grafischen Tint2conf recht ansehnlich einrichten, Nitrogen baut ein Hintergrundbild ein und mit Obconf und Lxappearance optimieren Sie die Oberfläche. Etwas Erfahrung und Spaß an der Desktop-Bastelei sind Voraussetzung. Lohn der Investition ist ein phänomenal schlankes, grafisches System: Der Befehl free -m meldet lediglich 50 bis 60 MB RAM-Verbrauch. Nach optischem Ausbau der Leiste, des Hintergrunds und des Menü kann sich der RAM-Verbrauch auf 90 bis 100 MB steigern. Das ist aber immer noch vorbildlich sparsam.

Um den Startkomfort zu erhöhen, kann Openbox nach der Anmeldung in der Textkonsole auch direkt geladen werden. Hierfür genügt etwa folgender Abschnitt in der Datei ~/.bashrc:

x=$(ps -e | grep openbox)
if [ ${#x} -eq 0 ]
   then
   startx
fi

Die Openbox-Oberfläche wird mit „startx“ nur dann aufgerufen, wenn sie nicht bereits läuft – also nur in der virtuellen Konsole.

Weiterer Komfort ist über die Konfigurationsdatei ~/.config/openbox/autostart zu erreichen:

nitrogen --restore &
tint2 &

Damit lädt Openbox automatisch Nitrogen und dieses Tool wiederum automatisch das zuletzt genutzte Hintergrundbild. Außerdem wird die Systemleiste automatisch gestartet.

Die Systemleiste konfigurieren Sie relativ bequem über das grafische Tool tint2conf („Edit theme“). Die Ausrichtung finden Sie im Punkt „panel“, die Farben der Leiste unter „Backgrounds“. Die Einträge für den Schnellstarter sind unter „Launcher“ komfortabel per Mausklicks einzurichten.

Das puristische Openbox-Menü, das jederzeit auf Rechtsklick am Desktop erscheint, können Sie mit dem grafischen obmenu ausbauen. Über „New item“ entsteht ein neuer Einzeleintrag, über „New menu“ eine neue Menü-Kategorie, die dann Einzeleinträge aufnehmen kann. Für neue Einzelstarter ist nicht mehr notwendig als der Name, der im Menü erscheinen soll, und der Programmaufruf.

Minimalistisches Openbox auf der Systembasis von Ubuntu Server

Tipps & Tools fürs Internet

Der kompakte Ratgeber erklärt wesentliche Aspekte der Internet-Nutzung hinsichtlich Effizienz und Sicherheit. Neben typischen Client-Rollen mit Browser und Mail geht es auch um öffentliche Home- und Web-Server.

Das öffentliche Netz, sprich: Internet, scheint auf den ersten Blick unkomplizierter als das lokale Netzwerk. Der Aspekt Hardware fällt unter den Tisch, denn dafür sorgen der Internet-Provider beziehungsweise die Millionen Web-Server mit ihren Mail-, Download-, Kommunikations-, Info-Diensten. Wer nur Download-technisch unterwegs ist, hat nur die Sicherheitssorge: Er muss dafür sorgen, dass kein digitaler Schmutz im eigenen lokalen Netz landet – und dabei ist Linux per se ein effizienter Schutzwall. Aber Internet ohne Uploads ist nicht realistisch: Mail, Cloud, soziale Netzwerke, Banking, Online-Konten und Synchronisierungsdienste summieren sich zu einer Entropie-Wolke veröffentlichter Upload-Daten. Hier geht es um Datenschutz, also um Schutz durch Verschlüsselung, um Überblick und um Reduktion der Datenmenge. Technisch anspruchsvoll wird es, wenn Daten von Home-Servern und Web-Servern über das Internet erreichbar sein sollen, aber vielleicht nicht für alle und jeden.

Internet-Grundlagen

Bandbreiten und MBit/s

Die Währung der Internet-Provider sind die relativ unhandlichen MBit/s, Megabits pro Sekunde. Um aus MBit/s eine anschauliche Datenmenge zu errechnen, teilen Sie grob durch 10 und runden großzügig auf: Bei 16 MBit/s gehen also gut 1,6 MB (2,0) pro Sekunde durch die Leitung, bei 50 MBit/s gut 5 MB (6,25). Aktuell reichen die angebotenen Bandbreiten von 2 bis 400 MBit/s. Welche Bandbreite wofür notwendig ist, soll folgende Grobübersicht zeigen:

Mit 6 MBit/s funktionieren Mail, soziale Netzwerke und HTML-Darstellung noch flott, Video-Wiedergabe wird aber bereits bei mäßiger Qualität grenzwertig.

16 MBit/s garantieren schnelles Surfen, flotte Software-Downloads und mit Abstrichen den Zugang zu IPTV und TV-Mediatheken.

25-50 MBit/s erlauben rasante Medien-Downloads (Audio, Film) und ruckelfreie Wiedergabe aller Medienangebote, grenzwertig bei hochauflösendem HD-Inhalten.

100-200 MBit/s sind Bandbreiten für anspruchsvolles Home-Office und Download-Junkies mit keinerlei Limits auf der Empfängerseite. Noch schnellere Leitungen sind derzeit kaum sinnvoll, weil Internetserver solche Datenmengen selten ausliefern.

Die Übertragungstechniken

DSL (Digital Subscriber Line) nutzt vom grauen Kasten an der Straße (DSLAM) bis zum Kunden das Kupferkabel der Telefonleitung und ist mit 16 MBit/s am oberen Limit. VDSL (Very High Speed Digital Subscriber Line) verwendet denselben Übertragungsweg, kommt aber durch technische Optimierung auf maximal 52 MBit/s.

Internet via Fernsehkabel ist schneller als (V)DSL und mit geringem Aufwand erreichbar, wo bereits ein Kabelanschluss besteht. Die Angebote der größten Kabelprovider Vodafone und Unitymedia reichen derzeit von 32 bis 400 MBit/s.

Glasfaser direkt zum Endkunden (Fibre to the Home) könnte theoretisch 1000 MBit/s übertragen, ist aber praktisch überall mit langsameren Kupferkabel kombiniert. Die Angebote nennen daher vergleichsweise bescheidene 25 bis 200 MBit/s. Glasfasernetze sind in Deutschland nur sporadisch anzutreffen.

Das Funknetz UMTS erzielt theoretisch bis zu 42 MBit/s. Typische Angebote liegen bei 7, 14 und 21 MBit/s. Neben der relativ geringen Geschwindigkeit müssen UMTS-Kunden mit einem knappen Downloadlimit auskommen. Wer dies überschreitet, wird auf mageren Kilobyte-Durchsatz gedrosselt. UMTS bleibt ein Notnagel, wo sonst nichts geht.

Das Funknetz LTE (Long Term Evolution, UMTS-Nachfolger) liefert – in der Theorie – bis zu 375 MBit/s. Die Angebote der Hauptprovider Telekom, Vodafone und O2 bewegen sich überwiegend zwischen 7 und 50 MBit/s. Auch hier gibt es enge Downloadlimits, deren Überschreitung die Leitung drosselt.

Verfügbarkeit prüfen: Simpelster Rat ist es, positive Erfahrungen der Nachbarn zu erfragen. Eine systematische Recherche-Quelle ist der Breitbandatlas unter www.zukunft-breitband.de, der Techniken und Anbieter für die Region anzeigt und dabei auch einen Filter für die gewünschte Bandbreite vorsieht. Mit einer Verfügbarkeitsprüfung beim passenden Anbieter mit genauer eigener Adresse erhalten Sie dann zuverlässige Auskunft.

Downloads und Uploads: Provider-Angebote nennen meist nur die Empfangsleistung, also die Download-Bandbreite. Das ist insofern berechtigt, als 99 Prozent der Endkunden nur Daten abholen wollen (HTML-Seiten, Medien-Streams, Datei-Downloads). Wer zu Hause einen Server betreibt oder beruflich große Datenmengen an Server verschicken muss, sollte auch an die Upload-Leistung denken. Die liegt oft nur bei 1 bis 3 MBit/s. Schnellere Uploads sind in der Regel nicht gesondert, sondern nur über teurere Gesamtpakete zu erreichen, die dann zugleich schnellere Downloads erlauben.

Breitbandatlas

 

Die zwei IP-Adressen (LAN und WAN)

Im lokalen Netzwerk (LAN – Local Area Network) hat jedes Gerät hat seine IP-Adresse. Der Zugang ins Internet bedeutet den Schritt in ein anderes Netzwerk – ins WAN (Wide Area Network), und dafür ist eine zweite, öffentliche IP-Adresse notwendig. Alle PCs, Tablets oder sonstige Geräte in Ihrem Heimnetz gehen mit dieser einen WAN-IP ins Internet. Die öffentliche IP-Adresse können Sie nicht beeinflussen: Sie wird dem Router einmal täglich neu vom Provider zugewiesen. Auch beim manuellen Neustart des Routers erhalten Sie eine neue öffentliche WAN-IP. Feste WAN-IPs gibt es nur noch bei einigen Uralt- oder teuren Business-Verträgen.

Für typische Internet-Nutzung ist es unerheblich, seine WAN-IP zu kennen: Das Gerät im lokalen Netz fordert eine Seite im öffentlichen Internet an (meist via Browser), der Router merkt sich die lokale IP, geht mit der öffentlichen WAN-IP zum angefragten Internet-Server, der schickt die angefragten Daten über die WAN-IP zum Router zurück, und der Router leitet sie schließlich an jenes Gerät weiter (an dessen lokale IP-Adresse), das die Anfrage ausgelöst hatte.
Der skizzierte Vorgang der „Network Address Translation“ (NAT) des Routers sorgt dafür, dass der Benutzer über den permanenten Wechsel vom lokalen Netz ins öffentliche Netz und wieder zurück nichts wissen muss. NAT sorgt ferner dafür, dass das lokale LAN-Netz und die dort befindlichen Teilnehmer vor unerwünschten Anfragen aus dem Internet abgeschottet sind: Alle Teilnehmer (IPs) im lokalen Netz sind nicht direkt erreichbar, sondern nur über die WAN-IP. Eine direkte Kommunikation vom Internet zu einem LAN-PC ist daher nicht möglich, und das ist aus Sicherheitsgründen auch gut so. Der Router verwirft alle Datenpakete aus dem Internet an die öffentliche WAN-IP, die von keinem Gerät im lokalen Netzwerk angefordert wurden.

Externe WAN-IP ermitteln

Die externe WAN-IP wird wichtig, wenn Sie über das Internet auf irgendeinen Serverdienst Ihres lokalen Netzwerks zugreifen oder die Sicherheit Ihres Netzes von außen prüfen wollen (etwa mit nmap). Die WAN-IP zeigt der Router in seiner Konfigurationsoberfläche, so etwa die Fritzbox unter „Übersicht“. Ferner gibt es zahlreiche Webdienste wie etwa www.browsercheck.pcwelt.de/firewall-check, welche die öffentliche IP via Browser zurückliefern.
Auf der Kommandozeile genügt der Befehl:

curl ifconfig.co

Sie erhalten ohne Umschweife die öffentliche WAN-IP. Auch das beliebte Kommandozeilen-Tool inxi, das über den gleichnamigen Paketnamen schnell nachinstalliert ist, beherrscht mit Parameter inxi -i die Abfrage der WAN-IP.

Das Heimnetz über Portfreigaben öffnen

Wer Daten oder Dienste seines lokalen Heimnetzes unterwegs aus dem öffentlichen Internet erreichen will, steht vor technischen und sicherheitstechnischen Problemen. Hinsichtlich der Benutzerauthentifizierung müssen weit strengere Regeln gelten als im lokalen Netz, da mit permanenten Einbruchsversuchen zu rechnen ist. Daher verbieten sich standardisierte User-Namen wie „root“ oder „gast“, und bei den Zugangskennwörtern sind komplexe Passwörter zwingend, an denen Wörterbuchattacken scheitern. Technisch entstehen drei Aufgaben:

1. Der Router benötigt eine Portfreigabe. Welche Portnummer (1- 65535) Sie nach außen öffnen, ist unerheblich – Sie müssen sie sich nur merken. Mit einer Portnummer größer 1000 erhöhen Sie theoretisch die Sicherheit, da Portscanner oft nur prominente Standardports abfragen (etwa 21 FTP, 22 SSH, 80 HTTP, 110 POP-Mail, 143 IMAP-Mail) oder die ersten 1000. Die Portfreigabe geschieht im Router, in der Fritzbox unter „Internet -> Freigaben -> Portfreigaben“. Bei anderen Routern mag das „Portforwarding“, „Portmapping“ oder „Virtual Server“ heißen, das hier für die Fritzbox erklärte Prinzip ist aber überall gleich: Sie tragen neben „von Port“ und „bis Port“ eine frei gewählte Portnummer ein, die nach außen geöffnet wird. Unter „an Port“ müssen Sie genau den Port-Kanal angeben, mit dem der Serverdienst arbeitet. Das kann beispielsweise 22 für SSH oder 80 für einen Webserver sein. Die Abbildung zeigt ein Beispiel für den SSH-Fernzugriff.

2. Der Heimserver benötigt eine feste lokale IP. Damit der Router Anfragen aus dem Web über die definierte Portnummer (frei wählbar) an das richtige Gerät schickt, ist es zuverlässiger, sich nicht auf dessen Hostnamen zu verlassen, sondern mit einer festen IP zu arbeiten. Die Fritzbox erledigt dies unter „Heimnetz -> Heimnetzübersicht -> Netzwerkverbindungen“ mit der Option „Diesem Netzwerkgerät immer die gleiche IPv4-Adresse zuweisen“.

3. Für den Fernzugriff auf den heimischen Server benötigen Sie die öffentliche WAN-IP. Der Fernzugriff für das abgebildete SSH-Beispiel kann dann mit ssh -p [Port] [User]@[WAN-IP] erfolgen, also etwa mit:

ssh -p 10880 ha@178.27.34.204

Dabei stellt sich jedoch das Problem, dass Sie die aktuelle WAN-IP Ihres Heimnetzes nicht ermitteln können, wenn Sie sich außerhalb Ihres Netzwerks befinden. Dafür gibt es zwei Lösungen:

3a. Sie registrieren eine Pseudo-Domain etwa bei www.noip.com oder www.dlinkddns.com (für D-Link-Router). Kontodaten und Hostnamen geben Sie dann in die dafür vorgesehenen Eingabefelder des Routers ein. Bei der Fritzbox finden Sie diese unter „Internet -> Freigaben -> Dynamic DNS“. Der Router wird ab sofort bei jeder Einwahl seine WAN-IP an diesen Dienst weitergeben. Folglich führt die Angabe der Pseudo-Domain weltweit in Ihr Heimnetz.
3b. Sie sorgen selbst dafür, dass die aktuelle WAN-IP Ihres Netzwerks irgendwo im Internet hinterlegt ist. Für diese Methode ohne externe Fremdhilfe liefert der nachfolgende Haupttext dieses Artikel Tipps und Anregungen.

Portfreigabe

Speedtest mit und ohne Browser

Wie schnell ist die Internetverbindung? Als aussagekräftig haben sich die Messwerte von Speedtest.net erwiesen (www.speedtest.net), und viele Provider, die scheinbar eigene Speedtests anbieten, nutzen im Hintergrund ebenfalls Speedtest.net. Die typische Messung erfolgt mit dem Browser, der dazu aktuelles Adobe Flash benötigt. Auf Linux-Systemen, zumal auf Servern ohne grafische Oberfläche, gibt es eine universellere Testmethode im Terminal. Das Python-Script speedtest.py benötigt keinen Browser, lässt sich mit

wget -O speedtest.py https://raw.githubusercontent.com/sivel/speedtest-cli/master/speedtest.py

in das aktuelle Verzeichnis laden und danach mit

python speedtest.py

starten. Durch Pings ermittelt das Script den optimalen Testserver und führt dann die Messungen für die Download- und Upload-Geschwindigkeit durch. Technische Basis ist auch hier der weltweite Web-Service von speedtest.net.

Speedtest

Wie schnell ist der Web-Server?

Wer seinen eigenen Webserver testen will, nutzt am besten das Kommandozeilen-Tool Siege, das unter diesem Paketnamen überall unter Linux verfügbar ist. Siege erzeugt auf dem Zielserver mit einer konfigurierbaren Flut von Anfragen eine ordentliche Last. Siege hat die Anlagen eines Denial-of-Service-Tools und sollte nur zeitlich und numerisch begrenzt, außerdem nur auf eigene Server losgelassen werden. Einen Stresstest mit 50 Verbindungen startet dieses Kommando:

siege -c50 -b www.meinserver.de

Die Anfragen laufen endlos, bis Sie mit Strg-C abbrechen. Nach Abbruch der Belagerung zeigt Siege eine Statistik der Messwerte an. Weitere Server-Tests mit zusätzlichen Ratschlägen zur Leistungsverbesserung bieten Web-Dienste wie https://developers.google.com/speed/pagespeed/insights von Google oder die Pingdom-Analysen unter http://tools.pingdom.com/fpt/.

Downloads und Uploads mit wget und curl

Für automatisierte Downloads und Uploads sind Browser und grafische FTP-Programme ungeeignet. Die wichtigsten Kommandozeilen-Werkzeuge wget und curl sind daher auf den meisten Linux-Systemen standardmäßig installiert. Wget beherrscht den rekursiven Download und kann somit eine komplette Website lokal speichern:

wget –r -l8 http://meineseite.de

Dieser Befehl holt bis in die achte Verzeichnisebene (-l8) alle Dateien von der angegebenen Website. Einzeldownloads sind natürlich mit wget http://seite.de/Datei.txt ebenfalls möglich. Über wget-Downloads lassen sich auch PHP-Scripts auf Web-Servern auslösen. Wo nötig, kann sich wget über die Parameter „–user=“ und „–password==“ auf dem Webserver ausweisen.

Curl beherrscht Uploads und Downloads, allerdings nicht rekursiv. Da Sie alle Downloads mit wget erledigen können, ist Curl vor allem für automatische Uploads relevant. Der entscheidende Parameter für Uploads ist „-T“. Die meist nötige Authentifizierung für FTP-Uploads beherrscht Curl über den Parameter „–user [ftpuser]:[kennwort]“. Das folgende konkrete Beispiel

curl -T ha.kbdx ftp://meinserver.de/ordner/ha.kbdx --user ha:geheim

ist im nachfolgnden Haupttext genauer erläutert.

Domain-Abfragen mit Host und Whois

Das standardmäßig installierte Tool host gibt die IP-Adresse einer Web-Domain zurück:

host google.de

Wer weitere Details erfragen will, sollte whois nachinstalieren, das mit gleichnamigen Paketnamen unter jedem Linux zu beziehen ist. Das Tool liefert zur angegebenen Site mindestens ausführliche Angaben zum Hoster, oft aber weitere Infos zum Domain-Besitzer einschließlich Adresse und Telefon. Whois ist auch hilfreich, um bei Spam-Mails mit gefälschten Adressen den realen Web-Server zu ermitteln.

 

Tipps und Tricks fürs Internet

1. Sicherheit im Browser: Die Schutzmechanismen

Firefox bietet unter „Extras -> Einstellungen -> Sicherheit“ drei Optionen, um betrügerische Webseiten zu blockieren. Hier sollten unter „Allgemein“ alle Kästchen aktiviert sein. Es handelt sich allerdings nur um einen Grundschutz, der durch Add-ons erweitert werden sollte. Chrome zeigt unter „Einstellungen -> Erweiterte Einstellungen anzeigen -> Datenschutz“ die Option “ Mich und mein Gerät vor schädlichen Websites schützen“. Früher hieß die Option technisch klarer „Phishing- und Malware-Schutz aktivieren“. Sie sorgt dafür, dass Chrome den Zugang auf gefährliche Sites blockiert und vor „ungewöhnlichen“ Downloads warnt. Ob es sich letztlich um eine harmlose Datei handelt, welche die Google-Datenbank nur nicht kennt, können Sie dann selbst entscheiden.

Weitere empfohlene Browser-Erweiterungen finden und installieren Sie über „Add-ons“ in Firefox oder über „Einstellungen -> Erweiterungen“ in Chrome/Chromium. Das Firefox-Add-on Noscript verhindert, dass Webseiten Javascript, Java oder andere ausführbare Inhalte automatisch starten. Sie haben die Kontrolle, ob solche Scripts starten dürfen. Das ist nicht immer bequem, da auf vielen interaktiven Seiten die Scripts explizit erlaubt werden müssen. Einmal erlaubte Sites landen aber in der Whitelist und müssen später nicht mehr bestätigt werden.

Chrome zeigt unter „Einstellungen -> Erweiterte Einstellungen -> Inhaltseinstellungen -> JavaScript“ eine Option, Javascript generell zu verbieten. Das ist nicht praktikabel, da dann sehr viele interaktive Web-Seiten nicht mehr funktionieren (etwa Google Drive, Google Store). Eine alltagstaugliche, mit Firefox-Noscript vergleichbare Lösung, steht nach der Einstellung von Notscript 2014 aus.
HTTPS Everywhere: Die Erweiterung wählt, wo immer verfügbar, eine verschlüsselte HTTPS-Verbindung zu einer Website. Verschlüsseltes HTTPS ist vor allem bei Bankgeschäften und Einkäufen im Internet unverzichtbar, weil Sie Zugangsdaten oder Kreditkartendaten über das Netz versenden müssen. Der Browser zeigt eine verschlüsselte Verbindung zur zertifizierten Gegenstelle in der Adresszeile grün gefärbt. Verifizieren Sie das immer, bevor Sie Daten eingeben.

Die über Jahre empfohlene Erweiterung Web of Trust (WOT) ist nach Bekanntwerden zweifelhafter Verkaufspraktiken disqualifiziert. WOT basiert auf einer an sich zuverlässigen Community-Datenbank mit betrügerischen oder jugendgefährdenden Websites und warnt vor dem Betreten solcher Seiten. Ende 2016 wurde allerdings bekannt, dass WOT die gesammelten Benutzerdaten an Big-Data-Kollektoren verkauft. Mozilla Firefox nahm WOT umgehend aus seinem Add-on-Angebot, und wo es bereits läuft, rät der Browser zur Abschaltung. Für Google Chrome ist es weiter erhältlich. WOT erhöht weiterhin die Sicherheit bei der Internet-Nutzung, ist aber aus Datenschutzgründen mehr als bedenklich.

Firefox blockt WOT: Die Browser-Erweiterung WOT verkauft gesammelte Nutzerdaten und hat sich damit aus Datenschutzgründen disqualifiziert.

2. Maximale Sicherheit: Banking mit Livesystem

Die Mehrzahl der Bankgeschäfte – Überweisungen, Buchungen, Daueraufträge – werden heute online mit SMS-TANs erledigt. In diesem Fall ist der Browser die Schnittstelle zur Bank, und dessen Sicherheitslücken können potenzielle Angreifer ausnutzen. Voraussetzung bei allen bisher bekannten Angriffsmethoden war aber immer, dass unabhängig von der eigentlichen Banking-Aktion bereits vorher schädlicher Code auf dem System eingeschleust wurde. Daher bietet das virenresistente Linux deutlich höhere Sicherheit als Windows. Überhaupt keine Chance haben Schädlinge, wenn Sie Bankgeschäfte mit Linux und einem schreibgeschützten Livesystem erledigen.
Spezialisierte Livesysteme mit Sicherheitsfokus sind Tails (https://tails.boum.org/index.de.html), Porteus (www.porteus.org) oder Trusted End Node Security (früher Lightweight Portable Security, https://www.spi.dod.mil/lipose.htm). Im Prinzip minimiert aber jedes beliebige Livesystem alle Risiken drastisch. Auf Livesystemen überleben Systemveränderungen vom Benutzer oder von einem Virus keinen Neustart. Da Sie als Software nicht mehr als den Browser benötigen, eignen sich am besten kleine, schnell startende Livesysteme wie etwa Puppy Linux, Quirky, Antergos oder Bunsenlabs.

Mit einem Linux-Livesystem sicher zur Bank: Da nur ein Browser notwendig ist, genügt jedes minimale Livesystem wie hier Puppy Linux.

3. Datenschutz durch Spezialsystem Tails

Tails (The Amnesic Incognito Live System) ist eine populäre Linux-Distribution im Zeichen von Anonymität und Datenschutz. Wenn Sie auf der Projektseite https://tails.boum.org auf „Installieren Sie Tails“ klicken, startet ein deutschsprachiger Installations-Assistent, der Sie Schritt für Schritt bei der Erstellung eines USB-Sticks begleitet. Tails erfüllt als Livesystem alle Sicherheitsansprüche, geht aber wesentlich weiter: Es nutzt das Tor-Netzwerk, das sämtlichen Internetverkehr (Browser, Mail, FTP) über jeweils drei Zwischenstationen abwickelt. Zielserver erfahren also nie Ihre öffentliche WAN-IP, sondern nur die des letzten Tor-Knotens.

Das Livesystem ist vorab so konfiguriert, dass alle Internet-Programme wie Browser oder Mail-Client das Tor-Netzwerk einsetzen. Sobald Sie sich angemeldet haben, dauert es ein paar Sekunden und Sie erhalten die Benachrichtigung, dass Tor gestartet ist. Das Zwiebelsymbol im Systempanel färbt sich grün. Ein Rechtsklick und der Aufruf des „Kontrollpanel“ bestätigt die Verbindung zum Tor-Netz. Somit können Sie mit dem anonymisierten Surfen beginnen. Wenn Sie eine der zahlreichen Seiten zur Ermittlung Ihrer externen IP-Adresse aufrufen (www.wieistmeineip.de), werden Sie sehen, dass sich die externe Adresse regelmäßig ändert.

Als Tor-Knoten kann sich allerdings jeder zu Verfügung stellen („Einstellungen -> Beteiligung -> Relais-Verkehr…“). Es gibt keine technische (Bandbreite) oder personelle Kontrolle. Die Surfgeschwindigkeit kann daher je nach Zwischenstationen beträchtlich sinken. Gelingt es Überwachungsstellen, Tor-Knoten zu kontrollieren, können Nutzer wieder de-anonymisiert werden. Außerdem ist es bei strafrechtlichen Tatbeständen zwar ein ungleich höherer Aufwand, aber keineswegs ausgeschlossen, durch Analyse aller Tor-Verbindungsdaten die Spur zum Täter zurückzuverfolgen.
Für (technische) Sicherheit im Web ist Tails nicht notwendig. Es handelt sich um ein Anonymisierungswerkzeug für besonders misstrauische Nutzer, die dafür auch langsame Verbindungen in Kauf nehmen. Wer nur Datensammler wie Google mit Re-Targeting und nachfolgender Werbebelästigung loswerden will, kommt mit dem „Private“- oder „Inkognito“-Modus von Firefox und Chrome aus (-> Punkt 5).

4. Datenschutz im Browser: Verschlüsselte Synchronisierung

Die Browser-Synchronisierung von Lesezeichen, Online-Kennwörtern, Einstellungen, Erweiterungen und Skins bedeutet für Nutzer mehrerer Geräte einen unschätzbaren Komfort. Weniger erfreulich ist der Nebenaspekt, dass dabei Mengen von persönlichen Daten auf Google- oder Mozilla-Servern hinterlegt werden müssen.
Der Mozilla-Browser Firefox verschlüsselt standardmäßig alle Daten, wobei der Schlüssel auf dem Gerät des Benutzers verbleibt. Generell darf Mozilla zu den „Guten“ gerechnet werden, die ein Auswerten von Nutzerdaten nicht selbst betreibt, sondern allenfalls zulassen muss.
In Chrome/Chromium werden standardmäßig nur die Kennwörter verschlüsselt. Aber unter „Einstellungen -> Erweiterten Synchronisierungseinstellungen“ (vorherige Google-Anmeldung vorausgesetzt) gibt es die zusätzliche Option „Alle synchronisierten Daten […] verschlüsseln“, bei der Sie ein individuelles Kennwort zur Sync-Verschlüsselung vergeben, das unabhängig vom Google-Kennwort ist. Der Komfortverlust ist nicht gravierend, da Sie dieses Kennwort auf jedem weiteren Gerät nur ein einziges Mal eingeben müssen. Alle Daten landen dann verschlüsselt auf dem Google-Server, der Schlüssel dazu (Kennwort) verbleibt auf dem lokalen Gerät.

Keine Infos an Google verschenken: Die Browser-Synchronisierung in Chrome und Chromium lässt sich so einstellen, dass Google nichts mehr zu lesen hat.

5. Datenschutz im Browser: „Inkognito“ und „Do not Track“

„Inkognito“ Surfen bietet keinerlei technischen Schutz vor digitalen Schädlingen oder betrügerischen Webseiten. Es anonymisiert auch nicht die IP-Nummer und verschleiert keine strafbaren Handlungen. Das Browsen im „Inkognito-Fenster“ (Chrome) oder im „Privaten Fenster“ (Firefox) ist aber eine nützliche Datenschutzmaßnahme: Es unterbindet den Großteil der Tracking-Schnüffelei der Website-Betreiber. Ein wichtiger Nebenaspekt ist ferner, dass Sie hier ohne Cookies und Web-Protokolle unterwegs sind und daher neutrale und ungefilterte Ergebnisse erhalten (gelegentlich wichtig bei Suchmaschinen und Online-Shops). In Chrome und Firefox starten die Tastenkombinationen Strg-Umschalt-N und Strg-Umschalt-P am schnellsten ein privates Fenster.

Neben dem nützlichen Inkognito-Modus bietet mittlerweile fast jeder Browser eine „Do not track“-Option. Dieser Info-Tag im HTTP-Header der Browser-Anfrage sollte es der Gegenstelle verbieten, Nutzungsprofile über den Besucher anzulegen. Der Effekt ist aber fraglich, weil Websites nicht verpflichtet sind, diese Bitte zu berücksichtigen. In Chrome/Chromium wählen Sie im Menü „Einstellungen“ und dort ganz unten „Erweiterte Einstellungen“. Im Abschnitt „Datenschutz“ finden Sie die Option „Mit Browserzugriffen eine „Do Not Track“-Anforderung senden“. Auch beim Firefox ist „Do not track“ nicht standardmäßig aktiv. Sie finden die Einstellung im Menü unter „Einstellungen -> Datenschutz“ in der Option „Websites mitteilen, meine Aktivitäten nicht zu verfolgen“.

6. Datenschutz: Mailverschlüsselung mit Thunderbird

Das Verschlüsseln der Mail-Korrespondenz ist wie jede Datenschutzmaßnahme mit gewissem Mehraufwand verbunden. Die Kombination von GnuPG plus Thunderbird mit Erweiterung Enigmail ist die wohl komfortabelste Lösung, erfordert aber etwas Gewöhnung und zumindest einen Anteil von Mail-Partnern, die ebenfalls GnuPG nutzen. Thunderbird und GnuPG (GNU Privacy Guard) sind auf Linux-Desktops meist vorinstalliert, und falls nicht, über die Paketnamen „thunderbird“ und „gnupg“ schnell nachgerüstet (für Windows gibt es Downloads unter www.mozilla.org und www.gnupg.org). Enigmail finden und installieren Sie in Thunderbird über „Add-ons“.

GnuPG verwendet zwei Schlüssel: Der öffentliche Schlüssel eines Mail-Teilnehmers wird dafür genutzt, Nachrichten an diesen Teilnehmer zu verschlüsseln. Der Teilnehmer selbst entschlüsselt die Nachricht mit seinem geheimen, privaten Schlüssel.
Nach der Installation der Enigmail-Erweiterung und einem Thunderbird-Neustart verwenden Sie im automatisch angebotenen Einrichtungsassistenten die „ausführliche Konfiguration“. Im ersten Schritt geben Sie die „Passphrase“ ein. Das Passwort benötigen Sie später, um auf Ihre Schlüssel zugreifen zu können. Es bildet auch die Grundlage für die Schlüssel. Nach der doppelten Eingabe legt Enigmail das neue Schlüsselpaar (öffentlich/privat) an. Falls Sie auf einem anderen Rechner bereits ein eingerichtetes Enigmail und ein Schlüsselpaar besitzen, wählen Sie im Assistenten die Option, bestehende Schlüssel zu importieren. Schlüssel lassen sich über „Enigmail -> Schlüssel verwalten“ als Ascii-Dateien exportieren und auf anderen Rechnern importieren.

Öffnen Sie wie gewohnt den Editor zum Verfassen von Nachrichten. Dort hat Enigmail jetzt eine weitere Symbolleiste platziert. Möchten Sie eine ausgehende Nachricht verschlüsseln, benötigen Sie den öffentlichen Schlüssel des Empfängers. Wenn Ihnen dieser als Textdatei vorliegt, können Sie den Schlüssel über „Enigmail -> Schlüssel verwalten -> Datei importieren“ einlesen. Alternativ gibt es Schlüsselserver, die öffentliche GnuPG-Schlüssel aufbewahren. Über „Schlüsselserver -> Schlüssel suchen“ sehen Sie nach, ob die Empfängeradresse dort eingetragen ist; falls ja, importieren Sie den Schlüssel mit einem Klick. Umgekehrt ist es sinnvoll, den eigenen Schlüssel über „Schlüsselserver -> Schlüssel hochladen“ im Web zugänglich zu machen.

Nach einem Schlüsselimport ist der neue Mail-Empfänger Enigmail/GnuPG bekannt. Künftig klicken Sie beim Verfassen einer Nachricht an diesen Empfänger auf das Symbol mit dem Schloss. Enigmail lässt sich auch so einstellen, dass Mails automatisch verschlüsselt gesendet werden, wenn für die Empfänger-Adresse schon ein Schlüssel vorliegt („Enigmail -> Einstellungen -> Senden“). Um Mails verschlüsselt zu versenden, müssen Sie Ihr Passwort eingeben. Wenn Sie mit dem Schloss-Symbol verschlüsselt senden wollen, aber kein Empfänger-Schlüssel vorliegt, erscheint automatisch der Hinweis, dass dieser Empfänger „nicht gültig“ ist. Dann besorgen Sie sich entweder den öffentlichen Schlüssel oder Sie senden unverschlüsselt.

Erhalten Sie umgekehrt eine E-Mail, die verschlüsselt wurde, erkennt Enigmail das automatisch. Wenn Sie im Vorschaubereich von Thunderbird auf das Element klicken, werden Sie dazu aufgefordert, das Passwort einzugeben. Wenige Augenblicke später erscheint die Nachricht.

Beachten Sie, dass Sie bei der Nutzung mehrerer Rechner die Schlüsselverwaltung manuell synchron halten müssen. Eine wichtige Hilfe ist wieder „Enigmail -> Schlüssel verwalten -> Datei exportieren“, wobei Sie einfach sämtliche Schlüssel markieren. Die resultierende Ascii-Datei lässt sich dann auf dem nächsten Rechner in einem Rutsch importieren.

Verschlüsselte Mail mit GnuPG und Enigmail: Wenn Sie versuchen, verschlüsselt zu senden, aber für den Adressaten kein Schlüssel vorliegt, öffnet sich automatisch die Schlüsselverwaltung.

7. Datenschutz: Verschlüsseln der Cloud-Daten

Dateien auf Dropbox, Onedrive, Hidrive & Co. sollten verschlüsselt werden, zumindest jene mit sensiblem Inhalt. Ohne Vorbereitung praktikabel, aber etwas unkomfortabel sind passwortgeschützte Packer-Archive etwa mit 7-Zip. Wenn Sie eine Cloud wie Dropbox über einen lokalen Synchronisierungsordner nutzen, dann ist der Einsatz von EncFS (Encrypted File System) mit grafischem Frontend Cryptkeeper komfortabler. EncFS und Cryptkeeper sind unter Debian, Ubuntu oder Linux Mint mit

sudo apt-get install encfs cryptkeeper

schnell nachinstalliert. Die Ersteinrichtung müssen Sie auf der Kommandozeile mit encfs erledigen, da Cryptkeeper Quellordner und Mountordner auf gleicher Ebene anlegt. Das wäre in diesem Fall kontraproduktiv, weil die Cloud neben den verschlüsselten auch die unverschlüsselten Dateien erhielte:

 encfs ~/dropbox/privat ~/Dokumente/dropbox

Sie arbeiten dann unter „~/Dokumente/dropbox“ normal mit den Dateien, die unter „~/dropbox/privat“ verschlüsselt werden. In der Cloud landen demnach nur verschlüsselte Daten.
Den bequemen cryptkeeper mit seinem Schlüsselsymbol in der Systemleiste können Sie später über die Option „Importiere EncFS Ordner“ mit dem Dropbox-Ordner bekannt machen. Der erlaubt einfache Auswahl zwischen mehreren EncFS-Ordner und schnelles Mounten und Aushängen per Mausklick.
Beachten Sie, dass alle sonstigen Dateien im Cloud-Verzeichnis weiter unverschlüsselt bleiben. Wenn Sie diese nachträglich verschlüsseln möchten, müssen Sie diese in den verschlüsselten Unterordner verschieben.

8. Datenschutz: Keepass-X mit Synchronisierung

Die Browser-Synchronisierung (-> Punkt 4) ist eines der komfortabelsten Cloud-Angebote. Dennoch hat sie zwei Mängel: Erstens machen Sie sich abhängig von Google oder Mozilla, zweitens speichern Firefox und Chrome keine lokalen Kennwörter. Wenn Sie alle Passwörter im Griff haben wollen, brauchen Sie zusätzliche Hilfe.
Der Passwort-Manager Keepass-X, der in gängigen Distributionen in den Paketquellen liegt (Debian/Ubuntu/Mint: sudo apt-get install keepassx) arbeitet als lokale Software und öffnet die maßgebliche KBDX-Datenbankdatei nach Eingabe des Keepass-Masterpassworts. Eine Synchronisierung der KBDX-Datei über mehrerer Rechner ist leider nicht vorgesehen, lässt sich aber über einen Trick erreichen, etwa über den lokalen Synchronisierungs-Ordner von Dropbox. Dann genügt es, Keepass-X mit der aktuellen KBD-Datei über den Aufruf

keepassx ~/Dropbox/[name].kbdx

zu laden. Dieser direkte Aufruf der Datenbankdatei funktioniert auch unter Windows.
Wer selbst einen Server besitzt, kommt ohne Cloud-Dienst aus und kann mit einem simplen Bash-Wrapper wie

cd ~
curl -O ftp://server.de/ordner/[name].kbdx --user 
  ftpuser:ftpkennwort
keepassx ~/[name].kbdx
curl -T [name].kbdx ftp://server.de/ordner 
  /[name].kbdx --user ftpuser:ftpkennwort

dafür sorgen, dass Keepass immer die aktuelle Datenbank nutzt und Änderungen wieder auf den Server zurückschreibt. Die KBDX-Datei ist per se verschlüsselt und kann ohne weiteren Schutz auf jedem Server liegen.

Verschlüsselte Keepass-Datenbank: Ohne Kenntnis des Datenbank-Kennworts bleibt der Keepass-Safe verschlossen. Die KBDX-Datei liegt daher auch auf öffentlichen Servern sicher.

9. Server: Homepage – öffentlich statt privat?

Eine Homepage kann neben öffentlichen Aufgaben auch dazu dienen, wichtige Downloads oder Infos bereitzustellen, die Sie überall erreichen wollen. Dabei sollten Sie aber sichergehen, dass nicht öffentlich wird, was Sie für den privaten Bedarf bevorraten. Google und andere Suchmaschinen durchsuchen praktisch alle verbreiteten Text-, Tabellen-, Präsentationsformate, selbst PDF- und Postscript-Dateien. Dies führt dazu, dass Suchmaschinen eventuell weltweit Inhalte präsentieren, die Sie für sich persönlich hochgeladen haben. Lediglich Zip-, Rar-, 7-Zip oder Tar-Archive sind den Bots zu mühsam. Packen ist also eine Methode, um die Crawler von Privatinhalten fernzuhalten. Eine weitere, noch einfachere Lösung ist ein „Disallow“ in der robots.txt. Diese Datei im Hauptverzeichnis Ihrer Site kann die Suchmaschinen von bestimmten Verzeichnissen fernhalten:

User-agent: *
Disallow: /Downloads/

Auch der Ausschluss von bestimmten Dateitypen ist möglich:

Disallow: /*.doc$

Für mehrere Anweisungen benötigen Sie je eine eigene „Disallow“-Zeile. Beachten Sie aber, dass sich die Suchmaschinen zwar an die robots.txt halten, dazu aber nicht verpflichtet sind. Packen ist letztlich sicherer.

10. Server: Homepage ohne Dateiauflistung

Ohne spezielle Vorkehrungen ist theoretisch jede Datei im Web von jedem Browser aus zu erreichen, wenn der URL-Pfad und der Dateiname bekannt oder zu erraten sind. Die Situation verschärft sich, wenn Sie für Verzeichnisse eine index.php oder index.html verwenden, die den Inhalt des Verzeichnisses auflistet. Der für Websites meist verantwortliche Apache-Server kann sogar so eingestellt sein, dass er Verzeichnislisten automatisch anbietet, ohne dass dafür eine Index-Datei notwendig wäre („/etc/apache2/apache2.conf“ und Einstellung „Options Indexes FollowSymLinks“). Hier genügt es in jedem Browser weltweit, den Verzeichnisnamen zu erraten („downloads“, „uploads“), um den Inhalt anzuzeigen und herunterzuladen. Standardmäßig schalten die Web-Hoster diese Einstellung allerdings ab.

Ungewöhnlich benannte Verzeichnisse oder PHP- und HTML-Datei erschweren das Erraten von privaten Daten. Allerdings gibt es spezialisierte Tools wie Dirbuster, die öffentliche Webserver hartnäckig nach Verzeichnisnamen durchkämmen, die in einer Wörterbuchdatei definiert sind. Deutlich sicherer ist es, den Zugriff mit einer htaccess-Datei zu beschränken. Das müssen Sie nicht manuell, sondern können es über das Kundencenter des Hosters erledigen. So bieten etwa Strato oder 1&1 einen „Verzeichnisschutz“, wo Sie nur einen Benutzer mit Kennwort anlegen müssen, danach das gewünschte Verzeichnis schützen und drittens dem vorher angelegten Benutzer eine Freigabe für das Verzeichnis erteilen.

Homepage als Cloud: Sorgen Sie dafür, dass nicht öffentlich wird, was als private Ablage gedacht ist. Der Schutz via htaccess ist am einfachsten über das Kundencenter des Hosters zu aktivieren.

11. Server: Portfreigabe ohne Fremdhilfe

Wie Sie einen Web-, FTP- oder SSH-Server im heimischen Netzwerk für das Internet freigeben, ist im Kasten „Internet-Grundlagen“ beschrieben. Wie dort skizziert, ist das Problem der wechselnden WAN-IP durch die tägliche Zwangstrennung auch ohne Hilfe durch Dyndns-Anbieter wie www.noip.com zu lösen. Die Zutatenliste hierfür ist keine große technische Herausforderung. Im Wesentlichen geht es nur darum, dass Sie Ihre aktuelle WAN-IP zuverlässig irgendwo im Internet vorfinden. Damit und mit der Portnummer, die Sie im Router freigegeben haben, kommen Sie dann von außen an den Home-Server. Im einfachsten Fall erkundigt sich ein Rechner im Heimnetz einmal täglich bei einem Web-Dienst nach der WAN-IP und schreibt sie in eine Textdatei:

curl ifconfig.co > wan-ip.txt

Diese Textdatei kopieren Sie dann etwa in den lokalen Synchronisierungsordner der Dropbox, wonach sie umgehend im Internet erreichbar ist. Oder Sie kopieren sie mit

curl -O ftp://meinserver.de/ordner/wan-ip.txt  
  --user [user]:[ftpkennwort]

auf einen FTP-Server im Web.
Wenn Sie eine Webseite besitzen oder einen Bekannten, der Ihnen dort Zugriff und ein paar Kilobyte einräumt, dann geht es auch ganz ohne Cloud und Web-Dienste:
1. Die Abfrage der WAN-IP muss aus dem heimischen Netz erfolgen. Am besten erledigt das der Server, dessen Dienste Sie freigeben wollen, mit einem Cronjob (nach crontab -e):

0 8 * * * wget --user=sepp --password=G3H3IM 
   http://server.de/ip/wan-ip.php

2. Das täglich um acht Uhr mit wget angestoßene PHP-Script liegt auf Ihrer oder Ihres Bekannten Website und enthält im Minimalfall folgende Zeilen:

Der Webserver ermittelt die WAN-IP Ihres Heimnetzes, da die Anfrage von dort kommt, und legt sie als TXT-Datei am Server ab – im gleichen Verzeichnis, wo auch das Script liegt. Somit können Sie die IP weltweit abgreifen und damit Ihr Heimnetz betreten.
Beachten Sie bei einer frei gewählten Nummer für die Portfreigabe (siehe „Internet-Grundlagen“), dass Sie beim Fernzugriff unbedingt auch den Port angeben müssen. Einen Apache-Webserver erreichen Sie dann etwa mit der Adresse http://[WAN-IP]:[Port] oder gegebenenfalls mit zusätzlicher Angabe des Verzeichnisses (etwa http://[WAN-IP]:[Port]/dokuwiki).

Portfreigabe und Adresse: Das im Router fürs Web freigebenene Wiki ist über die WAN-IP erreichbar. Die zusätzliche Port-Angabe ist erforderlich, weil der freigebenene Port auf 11080 gelegt wurde.

13. Server: Datentransfer über SSH (SFTP)

Ein über das Internet mit SSH zugänglicher Server bietet nicht nur Fernwartung im Terminal, sondern auch direkten Dateitransfer. Der verläuft verschlüsselt und ist somit sicherer FTP. Auf der Kommandozeile gibt es die Befehle scp (Secure Copy) und sftp (Secure File Transfer Protocol):

scp test.txt sepp@[WAN-IP]:~/sftp sepp@[WAN-IP]

Portfreigaben mit abweichender Portnummer (Standard ist 22) können Sie beiden Tools dem Parameter „-P“ mitteilen.

Weit komfortabler ist der Einsatz grafischer Dateimanager. Nautilus & Co. verstehen URLs wie ssh://[WAN-IP]:[Port] in der Adresszeile (die Adresszeile lässt sich mit Strg-L einblenden). Selbst unter Windows gibt es einen bequemen Zugriff: Filezilla beherrscht neben FTP auch SFTP: Sie können daher einen freigegebenen SSH-Server mit der WAN-IP, seinen Authentifizierungsdaten („Verbindungsart: Normal“) und SFTP-Protokoll in den Servermanager eintragen und sich verbinden.

Achtung: SFTP hat ein historisches Problem, das nach erfolgreicher Anmeldung zu Zeitüberschreitungsfehlern führt. Relativ einfache Abhilfe schafft eine Korrektur der Datei /etc/ssh/sshd_config auf dem SSH-Server. Ersetzen Sie dort

Subsystem sftp /usr/lib/openssh/sftp-server

durch „Subsystem sftp internal-sftp“ und starten Sie den SSH-Dienst mit sudo service ssh restart neu.

Via Internet am SSH-Server: Mit den Linux-Dateimanagern Nautilus & Co. gelingt der Datenaustausch problemlos und komfortabel. Unter Windows kann Filezilla aushelfen.

13. Server: Benutzer bei SSH ausschließen

Standardmäßig kann sich jeder Benutzer, der ein Konto auf einem Linux-Server hat, per SSH mit Kontonamen und Passwort anmelden. Im lokalen Heimnetz ist das meist in Ordnung, bei öffentlich erreichbaren Servern nicht. Der Benutzer root beispielsweise sollte sich nicht anmelden können, denn hier ist von den beiden Zugangshürden (Benutzer plus Kennwort) schon mal eine bekannt. Wenn ein Angreifer das root-Passwort durch eine Wörterbuchattacke errät, ist das System kompromittiert. Um root und andere Benutzer von SSH auszuschließen, ist eine Anpassung der Konfigurationsdatei /etc/ssh/sshd_config nötig. Tragen Sie die Zeile

 PermitRootLogin no

an einer beliebigen Position ein, um einen root-Login zu verbieten. Wichtige Voraussetzung für diese Maßnahme ist, dass sudo für einen oder mehrere Benutzer eingerichtet ist, damit man sich als Admin nicht selbst über das Netzwerk aussperrt. Weitere Benutzer schließen Sie durch die Zeile

DenyUsers [Benutzer1] [Benutzer2]

aus, wobei die Platzhalter [Benutzer] durch die tatsächlichen Namen der Benutzerkonten ersetzt werden. Die Einstellung wird nach

sudo service ssh restart

aktiv.

Zurück zur Linux-Übersichtsseite…