Dating my Homeserver – Verhaltensmaßregeln für eine erfolgreiche polygame und interkulturelle Koexistenz – oder ganz banal: Netzwerkprotokolle, Werkzeuge, Rechte, Ordnung und Automatisierungen

Hach ja, in der Theorie und Phantasie ist alles immer ganz toll und ganz einfach und ganz automatisch so wie es sich gehört.

In der Praxis sieht die Sache leider etwas anders aus.

Homeserver? Klar!
Mehrere Benutzer? Aber hallo!
Gemeinsame Verzeichnisse? Logo!
Alles praktisch über Samba? Wie sonst?
Ordnung? Sowieso!
Und SSH, um die Grenzen von Samba zu umgehen? Selbstredend!

Tja, und dann wundert man sich über merkwürdige Rechtevergaben, realitätsferne Ausgaben im Dateimanager, Dinge, die angeblich gehen, aber dann doch nicht gehen, Dinge, die angeblich nicht gehen, aber problemlos gehen würden, wenn Samba und Dateimanager das alles mal anständig übermitteln und verstehen würden….

Und man ärgert sich über lauter kleine Tätigkeiten, ohne die man leider nicht auskommt.

Ein Beispiel, dem ich gerade die Wacht im Walde ansage: Jeder Benutzer hat sein privates Verzeichnis. Aber es gibt auch noch ein gemeinsames Verzeichnis, das jeder nach Belieben nutzen kann. Wäre da nicht das Problem mit den Rechten, die immer richtig gesetzt sein müssen. Ich werde da ein andermal noch näher drauf eingehen, was warum nicht funktioniert und wie meine Lösung dazu aussieht. Selbstverfreilich geht sowas nicht ohne ein Script, einen Event-Handler, der den ganzen Mist, den man immer mühsam von Hand machen müsste (natürlich oft mit Root-Rechten, was jedes Mal und immer wieder einen manuellen Eingriff durch meine Wenigkeit via SSH erforderlich macht), automatisiert. Die eine Hälfte davon, nämlich die Rechteanpassung beim Verschieben von Dateien, ist bereits gemacht, ausbaufähig, aber im aktuellen Stadium der Ordnung auf dem Server einwandfrei zu gebrauchen. Im Moment philosophiere ich noch über die sinnvollste Weise, diesen Event-Handler auch mit neu erstellten Dateien umgehen zu lassen.

Ich frage mich, wie Andere mit solchen Widrigkeiten umgehen. Sind die einfach anspruchsloser als ich? Oder bin ich zu doof, das Naheliegendste zu tun? Gibt es das überhaupt? Ich kann ja googlen, wie ich will, niemand scheint dieselben Probleme zu haben wie ich. Und 0815-Lösungen gibt es dementsprechend auch nicht. Schon seltsam. Na ja, bastelt man sich halt selbst einen Workaround. Schadet ja nicht.

Thema Ordnung. Auch so ne tolle Sache! Da will man alles ordentlich zur Verfügung stellen, privates Datenverzeichnis und gemeinsames Verzeichnis im Homeverzeichnis gemountet, das alles in einem über Samba auf die Clients. Haha! Das ist herrlich, wenn man versucht, etwas von einem Mountpoint in einen anderen zu verschieben. Auch wenn das das alles auf derselben Partition stattfindet, wird da nix verschoben, sondern kopiert und dann die Quelle gelöscht. Juchu! So macht das doch Spaß! Ok, also scheißen wir auf Ordnung, binden die Platte als Ganzes ein, scheiß auf fremde Privatverzeichnisse, die eigentlich hätten verborgen bleiben sollen. Und nein, das geht nicht mal übers Homeverzeichnis, weil Nautilus sonst nicht weiß, wie viel Platz auf der Platte ist, sondern die ganze Zeit nur von der Größe des Homeverzeichnisses ausgeht. Also Homeverzeichnis und Datenplatte auch noch einzeln auf den Clients mounten. Ja, so wollte ich das immer haben! 😕

Vielleicht gibt es ja wenigstens in Windows dieses Größenproblem nicht. Dann würde ich zumindest meinem Mann die Datenplatte ins Homeverzeichnis legen. Aber er ist bisher noch nicht dazu gekommen, dem Server einen Besuch abzustatten.

Apropos Windows. Für mich sieht es so aus: Wenn Samba nicht reicht, greife ich auf SSH zurück. Dementsprechend sah bis neulich meine Planung aus, insgesamt stark SSH-lastig. Allerdings scheint, wie mich inzwischen dünkt, für Windows genau Gegenteiliges zu gelten. Da ist SSH keinesfalls das Alleskönner- und Allesmacher- und Remote-Bedienungs-Protokoll der Wahl. Zunächst mal kann Windows an sich sowieso überhaupt kein SSH. Ok, da ich damals schon immer Putty brauchte, um via SSH eine Kommandozeile zu kriegen, hat mich das jetzt nicht übermäßig geschockt. Aber überrascht hat es mich schon, dass der Explorer, der ja immerhin auch FTP kann (wenn auch – zumindest damals – nicht besonders gut), mit SSH nichts anzufangen weiß. Man kann sich dafür was installieren, womit man teilweise sogar SSH-Verbindungen im Explorer nutzen kann. Aber das ist wohl alles Andere als perfekt, extrem langsam und auch sehr eingeschränkt. Folglich ist Samba für unser Netzwerk wohl deutlich wichtiger als ich dachte. Ok, vielleicht nicht verwunderlich, wenn man bedenkt, aus welcher Schmiede die beiden Protokolle jeweils herkommen. Interessant ist aber, dass Microsoft sich gegenüber einer fremden Sache mal wieder vollkommen verschließt, während Samba in Linux zum guten Ton gehört und mal geschätzt das wohl meistgenutzte Dateiübertragungsprotokoll überhaupt sein dürfte (FTP mal außen vor gelassen, das ja irrsinnigerweise (Stichwort: Verschlüsselung) meistens im Webspace-Bereich, aber weniger im LAN verwendet wird). Interessant ist Microsofts bewährte Resistenz hier auch mal wieder vor allem deswegen, weil SSH ja nun mal in vielerlei Hinsicht das Nonplusultra-Protokoll ist, ob man nun einem entfernten Rechner etwas mitteilen will, einen Tunnel braucht, um irgendwas Anderes zu verschlüsseln, was das selbst nicht kann, oder eben auch mal Dateien überträgt. Aber gut, ich schweife ab. Es ist nur mal wieder so typisch.

Aber noch was Schönes, was ich gerade entdeckt habe. Ich hab mir jetzt doch mal den Midnight Commander angeguckt. Das ist ein Dateimanager für die Kommandozeile. Ich dachte immer, da ich zsh benutze, brauch ich sowas nicht. Aber weit gefehlt! Das Ding ist herrlich! Ich kann mich damit vom Laptop aus auf dem Server durchklicken. Und alles machen, was man mit einem Dateimanager nun mal so macht. Tolles Ding! Ich glaube, SSH-Verbindungen via Nautilus brauch ich dann wohl auch nicht mehr. Wir werden sehen…

Ein Traum, der vermutlich mal wieder nur in der Phantasie schön ist: Virtuelle Verzeichnisse. So wie die Bibliotheken in Windows 7. Ich schätze, mein Mann kann sich das bestimmt alles passend basteln, clientseitig dann eben. Geil wär’s, wenn ich das auf dem Server alles so irgendwie pseudo-mounten könnte, dass das dann direkt so bei allen Clients landet. Geil deshalb, weil dann jeder seine Dateien in seinem Verzeichnis haben kann und sie einfach nur für den gemeinsamen Bereich irgendwie bereit stellt. Vielleicht fällt mir dazu ja noch irgendwas ein…

Allgemein lässt sich das Ordnungsproblem bis jetzt sowieso nur clientseitig lösen. Aber so toll ist das nicht. Wenn ich z.B. auf dem Server Symlinks anlege, kann ich die entweder via Samba oder via SSH gebrauchen, weil die Pfade sich natürlich unterscheiden (bei Samba sind sie lokal, bei SSH auf dem Server).

Ich brauch Pseudo-Hardlinks auf Verzeichnisse und Pseudo-Mount-Scheiß, der ungefähr so aussieht wie Windows-Bibliotheken! Eigentlich finde ich die total blöd und wirr. Da weiß man ja nie, wo seine Dateien sind! Aber genau das ist es, was ich auf dem Server nicht nur nicht unpraktisch finde, sondern eigentlich gut gebrauchen könnte. Denn da geht es nicht um Ordnung im Dateisystem. Die kann ja gerne abweichen, solange sie existiert. Aber mir geht es um Benutzerfreundlichkeit auf den Clients. Und dazu gehört eine vernünftige Struktur und möglichst wenige Klicks und Handgriffe!

Update (Mi, 01/18 01:17): Ein kleiner Schritt in Richtung Ordnung ist gemacht. Praktischerweise lassen sich Symlinks ja auch relativ angeben. Und dann funktionieren sie auch mit Samba UND SSH gleichermaßen.

Veröffentlicht unter Administration, Allgemein, Coding, Linux, Netzwerk | Hinterlasse einen Kommentar

WRT54GL aus dem Terminal steuern: Internetsperre einrichten

Ich habe einen Linksys WRT54GL Router, ungeflasht. Also mit der Original-Firmware, die leider nur via HTTP bedienbar ist. Ich habe die drauf gelassen, weil ich zuerst die Garantie nicht verlieren wollte. Und jetzt hab ich auch keine Lust auf irgendwelche Überraschungen, weshalb ich immer noch keine Ambitionen zum Flashen verspüre.

Auch wenn sicherlich mehr drin wäre, tut der Router seinen Dienst, und das einzige, was ich manchmal vermisse, ist ein SSH-Zugang.

So auch in diesem Fall.

Es gibt derzeit keinen vernünftigen Grund, warum mein Homeserver permanenten Internetzugang braucht. Seine Aufgaben laufen im Moment allesamt nur intern ab. Ins Internet muss er momentan ausschließlich, um Software zu installieren. Und das geschieht ondemand, also jeweils auf meine höchstpersönliche Anweisung hin.

Wozu ihm also die Tore zum Internet offen stehen lassen?

Die letzten Tage habe ich mich also damit herumgeärgert, jedes Mal die Weboberfläche des Routers im Firefox anzufordern, mich bei der .htaccess-Sperre einzuloggen, mich durchs Formular zu klicken, die aktiven Logins im Firefox zu löschen und bei nächster Gelegenheit das Passwort zur Entschlüsselung meiner gespeicherten Passwörter wieder einzugeben. Alles eine sehr müßige Geschichte.

Was liegt da näher als den ganzen Quatsch einfach mit einem curl-Befehl erledigen zu lassen? Aber was sendet man dann ab?
Der Quelltext der Formular-Seite ist lang und dank tonnenweise Javascript nicht mal eben in 5 Minuten zu durchschauen. Und um das Ganze im Einzelnen nachzuvollziehen, fehlte mir gerade wirklich jede Motivation.

Aber wie schön, dass man seinen Netzwerkverkehr auch einfach abgreifen kann, um zu lesen, was FF da so Feines an den Router sendet.

Also Wireshark angeschmissen und mit FF das Formular abgesendet. Der entsprechende Eintrag im Mitschnitt war schnell gefunden und offenbarte mir den Query-String, den ich dann nur noch in den Befehl packen musste.

Und siehe da, binnen einer Sekunde ist der Internetzugang hergestellt oder wieder gesperrt. Kein mühsames Rumgeklicke und sonstige Umstände mehr.

Internet sperren:

curl -d "submit_button=Filters&change_action=&submit_type=save&action=Apply&blocked_service=&filter_web=&filter_policy=&f_status=1&f_id=<ID DES FILTERS>&f_status1=enable&f_name=<NAME DES FILTERS>&f_status2=deny&day_all=1&time_all=1&allday=" http://:<PASSWORT>@<ROUTER-IP>/apply.cgi >/dev/null 2>&1

Sperre aufheben:

curl -d "submit_button=Filters&change_action=&submit_type=save&action=Apply&blocked_service=&filter_web=&filter_policy=&f_status=0&f_id=<ID DES FILTERS>&f_status1=disable&f_name=<NAME DES FILTERS>&f_status2=deny&day_all=1&time_all=1&allday=" http://:<PASSWORT>@<ROUTER-IP>/apply.cgi >/dev/null 2>&1

Der Teil zwischen den Anführungsstrichen ist der abgegriffene (und etwas verallgemeinerte) Query-String.

Diese Befehle gelten für eine komplette Sperre, bzw. freien Zugang. Um das differenzierter zu gestalten, würden die natürlich noch etwas anders aussehen. Aber das könnte man dann ja ebenfalls mit Wireshark herausfinden.

Den richtigen Eintrag findet man, indem man in die Suchmaske das Wort „Filter“ einträgt. Außerdem muss man noch „String“ und „Packet details“ anklicken. Wenn man dann einen POST an eine apply.cgi findet, dürfte man den richtigen Eintrag haben. Der Query-String sollte sogar bereits von der Suche markiert worden sein. Dann einfach Rechtsklick => Copy => Value und direkt im Befehl oder einem Editor einfügen.

Die Befehle lassen sich nun in ein Script eintragen und jederzeit mal eben schnell ausführen. Außerdem ließe sich das auch problemlos automatisieren, dass sie vor und nach Updates und Installationen ausgeführt werden, indem man das entweder auch über ein Script oder einen Alias-Befehl erledigen lässt.

Also auch ein SSH-freier WRT54GL lässt sich glücklicherweise nicht nur via Browser, sondern auch mit praktischen Befehlen steuern. Und wieder kein Grund zu flashen. 😉

UPDATE (Mo, 01/16 01:00): So ein Script könnte ungefähr so aussehen:

#!/bin/bash

[ "$1" == "open" ] && {
	f_status=0
	f_status1=disable
}

[ "$1" == "close" ] && {
	f_status=1
	f_status1=enable
}

curl -d "submit_button=Filters&change_action=&submit_type=save&action=Apply&blocked_service=&filter_web=&filter_policy=&f_status=$f_status&f_id=<ID DES FILTERS>&f_status1=$f_status1&f_name=<NAME DES FILTERS>&f_status2=deny&day_all=1&time_all=1&allday=" http://:<PASSWORT>@<ROUTER-IP>/apply.cgi >/dev/null 2>&1

Um es zu nutzen, muss erst mal über die Weboberfläche des Routers eine entsprechende Sperre eingerichtet werden.

Dann ersetzt man im Script die Sachen in den spitzen Klammern mit den richtigen Angaben.

Das Script speichert man z.B. unter ~/bin/internetsperre.sh, macht es ausführbar und kann dann zum Deaktivieren der Internetsperre

internetsperre.sh open

und zum Aktivieren

internetsperre.sh close

ausführen.

Veröffentlicht unter Allgemein, Coding, Netzwerk | Hinterlasse einen Kommentar

Hallo!

Problem: Auf meinem Homeserver sollen abhängig davon, in [i]wessen[/i] Verzeichnis eine Datei liegt, die Rechte automatisch angepasst werden.

Aufbau:

  • Jeder hat seinen eigenen Account auf dem Server.
  • Das Netzwerk ist heterogen (Windows und Linux).
  • Es kann je nach Geschmack zwischen Samba, SSH und FTP ausgewählt werden (Samba und SSH stehen bereit, FTP soll noch, Andere, z.B. WebDav sind nicht geplant, aber nicht ausgeschlossen).
  • Jeder Benutzer hat sein eigenes Homeverzeichnis.
  • Auf der Datenplatte gibt es ein gemeinsames Verzeichnis und dazu für jeden Benutzer noch ein weiteres privates Verzeichnis.

Der Plan:

    In den privaten Verzeichnissen sollen alle Dateien dem Besitzer des Verzeichnisses gehören.
    Im gemeinsamen Verzeichnis gehören die Dateien dem, der sie dort rein gestellt hat.
    Die Zugriffsberechtigungen sollen durch Gruppen realisiert werden, in denen die Benutzer entweder Mitglieder sind oder eben nicht (Bsp.: Gruppe o18 enthält nur Benutzer über 18 Jahren).

      Insbesondere im gemeinsamen Verzeichnis (aber auch in ausgewählten Privatverzeichnissen) soll den Dateien immer eine bestimmte Gruppe zugeordnet sein (Bsp.: der neuste Splatterfilm würde z.B. der Gruppe o18 gehören und die Rechte 660, bzw. 770 für den Ordner bekommen).

    Die Dateien sollen beliebig verschoben zwischen dem gemeinsamen und den privaten Verzeichnissen hin und her geschoben werden können, wobei die Rechte immer automatisch angepasst werden.

      Schiebt ein Benutzer eine Datei aus dem privaten Verzeichnis in sein eigenes, wird er als Besitzer eingetragen.
      Je nach Zielverzeichnis…

        wird die Gruppe in die des neuen Besitzers geändert – oder auch nicht.
        werden die Rechte ggf. auf 6/700 gesetzt – oder auch nicht.

Das Ganze soll automatisch beim Erstellen, Kopieren und Verschieben von Dateien/Verzeichnissen passieren.

Was hab ich schon gemacht/versucht/überlegt?
Zwar nicht mit diesem Ziel, sondern eher der Ordnung halber hatte ich die Verzeichnisse auf der Datenplatte im Homeverzeichnis gemountet. Da wäre es ja zumindest möglich gewesen, entsprechende (wenn auch nicht derart differenzierte) Rechte in die Mount-Optionen zu schreiben. Das Problem dabei ist allerdings, dass Dateien so nicht einfach zwischen den Bereichen verschoben werden können, sondern erst kopiert und dann an der Quelle gelöscht werden. Genauso als ich das gemeinsame Verzeichnis im privaten Verzeichnis und dieses wiederum im Homeverzeichnis gemountet hatte. Also mounte ich jetzt nur noch die komplette Datenplatte und stelle sie via Samba bereit. (gefällt mir so nicht, aber ist wohl ein notwendiger Kompromiss). Um die Ordnung und evtl. Verknüpfungen muss sich dann der Client selber kümmern.

Ich kann dieses Problem auch logischerweise nicht über Samba mit „create mask“ und „directory mask“ lösen (wobei das ja dann sowieso nur für Samba gilt), denn wenn ich die Verzeichnisse einzeln bereit stelle, hab ich ja wieder das Problem, dass nicht vernünftig verschoben werden kann und das ja in dem Fall nur noch schlimmer ist, weil das alles auch noch erst über den Client wandern muss.

Kurz um, Samba-Masken und Mount-Optionen scheiden leider aus.

Des Weiteren habe ich mal probiert, was wohl passiert, wenn in der /bin/mv-Datei mal nur ein touch-Befehl steht (/bin/mv verschoben und als Shell-Script neu erstellt). Aber Samba scheint nicht darauf zurück zu greifen, denn anstatt beim Versuch, vom Client aus über Nautilus einen Ordner zu verschieben, wurde nicht die neue Datei erstellt, sondern nach wie vor versucht, zu verschieben.

Aber wahrscheinlich liegt der Hund auf dem Client begraben. Vermutlich muss ich dort die Befehle ändern (bzw. Alias-Befehle nutzen). Aber das dann auf sämtlichen Clients zu realisieren, Besuch eingeschlossen, und dann immer sicher zu stellen, dass alle brav meinen Anweisungen Folge leisten, finde ich eher wenig gangbar, zumal es da ja auch noch Windows im Netzwerk gibt.

Eine andere Idee wäre ein Cronjob, der regelmäßig die Rechte anpasst. Der hätte nur leider immer ziemlich viel zu tun.

Dann wäre da vielleicht noch ein Überwachungsdämon wie inotify. Aber da steht bei [url=http://wiki.ubuntuusers.de/inotify#Probleme]ubuntuusers[/url]:

[quote]Sollen bei neu erstellten Dateien (create) die Zugriffsrechte geändert werden, so kann dies fehlschlagen, wenn die Erstellung der Datei erst nach dem Ändern der Zugriffsrechte fertig ist.[/quote]

Vermutlich ist inotify aber trotzdem die Lösung meines Problems. Ich muss eben dafür sorgen, dass die Rechte nur beim Verschieben geändert werden. Problematisch ist aber dann trotzdem noch das Erstellen von Dateien, weil ja auch da verschiedene Vorgaben herrschen sollen. Vielleicht kann inotify aber in dem Fall ein Script auslösen, das in bestimmten Abständen überprüft, um die Datei noch größer wird und anschließend die Rechte ändert.

Veröffentlicht unter Allgemein | Hinterlasse einen Kommentar

Homeserver, welcome back!

Hach ja, hätte ich es doch gleich so gemacht wie jetzt. Mir wären ca. 1 1/2 Jahre Frust und Aufschub erspart geblieben.

Ja, der Homeserver läuft wieder! Endlich! Lang hat’s gedauert.

Woran ist es gescheitert?

Vor allem am ständigen Verschlafen, mir eine ausreichend große Festplatte zwecks Datensicherung anzuschaffen, nachdem mir mein System auf einem noch unausgereiften ext4 dahingeraucht war, und ich mich nicht getraut habe, einfach neu zu installieren mit meinen Tonnen von jahrelang angesammelten Daten auf den Platten. Außerdem war ich ab diesem Moment von ext4 endgültig geheilt – jedenfalls vorerst, aber dazu komme ich später. Ich wollte es eigentlich gar nicht haben, aber wenn man schon mal bereit ist, einen Rat anzunehmen, muss es natürlich ausgerechnet in dem Fall der falsche sein…

Ich hätte einfach von Anfang an meine eigenen Pläne verfolgen sollen, anstatt Kompromisse einzugehen oder jemandem zu vertrauen, der zwar Informatik studiert hat, aber für den nach Mac OS sowieso die Sintflut kommt. Ja, ext4 ist ja soooooooooooooo schnell! Toll! Super! Aber was hab ich von Geschwindigkeit, wenn es noch nicht stabil ist?

1,5 TB ReiserFS im RAID1 und System auf USB-Stick oder ner kleinen alten IDE-Platte, das war mein Plan. Aber dann ging das Überlegen los. Stromverbrauch einer weiteren HDD, Geschwindigkeit von IDE, Mechanische Stabilität eines eingesteckten USB-Sticks, insbesondere in Verbindung mit Katzen und einem Kleinkind… Also hab ich dann doch einfach das RAID-Array partitioniert und den dämlichen Rat mit ext4 befolgt. Ich habe immer auf ReiserFS geschworen. Ich hätte dabei bleiben sollen! Und ich hätte niemals das System mit auf die Datenplatten packen dürfen!

Nun ja, ich hatte ein paar kurze Monate Spaß mit meinem Server, alles immer parat, aber doch immer ein ziemlich doofes Gefühl im Bauch, weil mir das mit ext4 einfach nicht gefallen wollte. Und dann eines Tages geschah es. Das Kind war mal wieder im Dunstkreis des Servers unterwegs und fand den leuchtenden Schalter der Steckdosenleiste offenbar hoch interessant. Tja, und dann war der Strom weg. Eine Platte hatte auf der System-Partition ein paar defekte Sektoren. Der RAID-Controller scheint ordnungsgemäß damit umgehen zu können, wie ich letzte Nacht beim Wiedereinspielen des Backups feststellen durfte, als defekte Sektoren brav ersetzt wurden. Jedenfalls wollte das System damals nach dem gescheiterten Versuch, das Journal wiederherzustellen, das Dateisystem überprüfen und reparieren, was einigen wichtigen Dateien leider den Gnadenstoß verpasste. Und das war nicht die erste Überprüfung dieser Art gewesen, nur dass es das erste Mal war, dass dabei was kaputt gegangen ist.

Wie gesagt, mir fehlte eine Festplatte, die all die Daten hätte fassen können. So blieb die ganze Sache dann einfach liegen, wie das nun mal so ist, wenn man „mal was machen muss…“ Das RAID war die ganze Zeit lediglich ein Trost, dass ich den ganzen Kram wenigstens doppelt habe, falls mal was mit einer der Platten sein sollte.

Was den Controller in Sachen Bequemlichkeit gegenüber einem Software-RAID auszeichnet, ist mir bis heute schleierhaft. HotSwap schön und gut, aber was bringt mir das, wenn das Array offline wiederhergestellt werden muss? Falls er in der Lage sein sollte, im laufenden Betrieb eine Platte komplett zu spiegeln, ist mir das bisher jedenfalls noch nicht aufgefallen. Ich kenne jedenfalls nur die Möglichkeit, zwischen BIOS-Gedönz und Boot die Platten anzumelden und von der Quell- auf die Zielplatte zu kopieren – keine Ahnung, wie viele Stunden, geschätzt etwa 15-16, natürlich bei vollem CPU-Takt. Schon mal drauf geachtet, was das BIOS für CPU-Temperaturen anzeigt? Das ist schon nach kurzer Zeit jenseits von Gut und Böse, weil das Ding da nicht runtertaktet. Nachher raucht mir die CPU noch dahin. Also war diese Offline-Spiegelung nie eine Option für mich. Ansonsten hätte ja auch die Möglichkeit bestanden, eine Platte vorzubereiten, wie ich sie haben wollte, alle Daten da drauf zu ziehen und den ganzen Kram dann auf die andere Platte zu spiegeln. Vielleicht hätte das auch funktioniert, wenn ich manuell mit dd gespiegelt hätte, aber das habe ich pessimismusbedingt nie ausprobiert.

So habe ich also den Server die letzten 1 1/2 Jahren vorwiegend tatenlos in der Ecke stehen gehabt, ein paar mal, wenn ich unbedingt mal an die Daten musste, ein Live-System gestartet und ihm den Rest der Zeit hinterhergetrauert. Und ich wollte ihn ja immer mal wieder fertig machen.

Vor ein paar Monaten fing ich dann auch wirklich mal wieder an, mich darum zu kümmern. Er sollte nun so werden, wie ich es ursprünglich vor gehabt hatte. Fast. Denn anstatt IDE-HDD oder USB-Stick war nun mein Augenmerk in Richtung SSD gewandert. Stromsparend, flott und intern verbaubar. Keine Kompromisse mehr. Aber die Auswahl war einfach viel zu groß. Und dann noch die Wahl des Einbau-Adapters. Und die Frage nach der Backup-Platte. Intern, extern, welches Gehäuse, oder grad eine fertige USB-Platte, um mich wieder darüber aufregen zu können, dass das Gehäuse geklebt ist und ich es im Problemfall nicht mal eben aufschrauben und wieder zusammensetzen kann? Und das war zu dem Zeitpunkt nicht das einzige, was ich mir aussuchen musste/wollte. Da wäre z.B. noch ein externer Notebook-Lüfter gewesen. Logitech hat da so ein schönes Teil mit automatischer Lüftersteuerung und – wie man liest, recht wohlklingenden – Lautsprechern, alles über USB. Das Ganze liegt auf einem ergonomischen Polster, um sich bequem mit Laptop auf dem Schoß (sagt ja schon der Name) in die Ecke fletzen zu können. Aber natürlich hatte ich auch da wieder meine Zweifel. Das Ding ist nämlich viel zu groß, um es ständig mit sich herum zu schleppen oder mal eben auf einen vollgeräumten Tisch zu stellen. Und es stellt sich die Frage, ob Lüftersteuerung (die sich nicht manuell erledigen lässt) und das Sound-System unter Linux funktionieren. Also wie üblich gegooglet und hin und her überlegt und schließlich blieb die ganze Sache wieder liegen, noch bevor ich dazu kam, mich näher mit dem Angebot an Festplatten, etc. auseinander zu setzen.

Und wieder blieb der Frust. Bis er vor ein paar Tagen dann doch so groß wurde, dass ich mir eine alte Laptop-Platte geschnappt habe, auf der noch Systeme drauf waren. Eingebaut, gebootet, Serverdienste klar gemacht. Und da war er wieder – mein Server! Ich machte mich schon wieder daran, meine Daten endlich mal aufzuräumen. Abends runtergefahren, morgens wieder gestartet. Doch wo war meine mühsame Arbeit vom Vortag geblieben? Es stellte sich heraus, dass die Veränderungen nur auf einer der beiden Platten vorhanden waren. Die Platten liefen also unabhängig. Der Controller hatte davon irgendwie nichts mitbekommen, sondern behauptete immer noch, die Platten seien synchron. Nun war es also wirklich unabdingbar, aus der Not eine Tugend zu machen. Erstaunlich, wie schnell ich mich auf einmal entscheiden konnte. OCZ Vertex Plus 60GB, dafür ein 3,5″ Case von Sharkoon, das ich ins einstmalige Heim eines Floppy-Laufwerks einbauen konnte, 2TB HDD von Samsung und USB-Gehäuse wiederum von Sharkoon. Festplatten sind scheiß teuer momentan, also hab ich es dabei belassen, anstatt mich wieder tagelang hinter weiteren Überlegungen und Produktauswahlen zu verschanzen, zwischen Preis, Leistung, Funktionalität und Vorlieben abzuwägen, etc. pp.

Und was soll ich sagen? Ich bin glücklich mit dem Kram!

Daten beider Platten auf USB-Platte gesichert.
SSD in System-, SWAP- und Home-Partition aufgeteilt und diesmal bewusst ext4 verwendet, weil es zum einen inzwischen stabil geworden ist, zum anderen – und das ist der entscheidende Punkt – das idealste stabile FS für die Nutzung auf SSDs ist. Ich philosophiere noch über die geeignete Konfiguration, weil da die Meinungen doch weit auseinander gehen. noatime klar, discard für TRIM, aber sonst? Journal ja/nein? Na ja, ich werde schon noch meine Überzeugungen finden.
Nach einigem Hin und Her zwischen Debian und openSUSE war die Wahl übrigens letztendlich auf Ersteres gefallen.
Intakte Platte genullt, damit keine Restdaten erhalten bleiben, wenn die defekte Platte das Ersetzen von Sektoren einläutet. Durch das RAID wird nämlich auf beiden Platten der Sektor ersetzt.
RAID wiederhergestellt, nach einigem Gefuckel in Debian dann auch gefunden.
Den Bereich der ehemaligen System-Partition habe ich frei gelassen, weil es immerhin um 45 Sektoren geht, die für die heile Platte die reinste Verschwendung wären. 3 im nun wieder partitionierten und diesmal tatsächlich mit ReiserFS formatierten Datenbereich sind definitiv genug.
Daten wieder zurück gespielt.

Und seit heute Morgen 8:02 Ortszeit ist es vollbracht! Ich hab meinen Server wieder! 🙂

UPDATE (Di, 01/10 11:20):

Manchmal sind schnelle, aus Dringlichkeit und Not geborene und mehr oder weniger unreflektierte Entscheidungen wohl nicht die schlechtesten.

Ich hab bei beiden Platten Geschwindigkeiten, die begeistern. Die externe schreibt durchschnittlich 30-40 MB/s bei USB 2.0. Ich hab auch zwischendurch schon über 50 gesehen.

Und die SSD ist der Hammer! Die längste Zeit zwischen Boot und Login-Prompt betrug ca. 10-12 Sekunden, direkt nach der Installation. Ansonsten sind es eigentlich nicht mehr als 5, manchmal auch nur 1 oder 2 Sekunden. Updates sind auch witzig. Download dauert wie üblich ewig. Aber wenn er dann mal am Installieren ist, dann flitzt das. Im Vergleich mit anderen SSDs ist sie nicht gerade der hellste Stern, um nicht zu sagen lahm, aber günstig und zweckmäßig – und im praktischen Einsatz bisher vollkommen zufriedenstellend (der ganze Server ist kein High End, aber doch deutlich leistungsfähiger, als ich ihn ursprünglich geplant hatte; z.B. ist damals aus dem geplanten Atom (wollte ich zum Strom sparen haben) dann doch einen Pentium Dual Core (E5400, 2,7 GHz) geworden, etc.).

Im Moment ist da eigentlich nur noch eine Sache offen – und zwar im wahrsten Sinne des Wortes. Und das sind die beiden großen Löcher in der Gehäusefront, die einst zwei CD-Laufwerke beherbergten. Da das Gehäuse von einem Medion-Fertig-PC stammt, kriegt man dafür natürlich keine Blenden. Vielleicht bau ich da noch irgendwas rein, vielleicht kleb ich sie auch einfach mit Gaffa-Tape zu. Offen bleiben sollten sie jedenfalls nicht. Die Temperaturen tangieren sie zwar in keinster Weise (solche Werte hätte ich zu gerne in meinem Laptop…), aber erfahrungsgemäß wirft das Kind da gerne mal irgendwelche Sachen rein.

Und dann wäre da vielleicht noch der Standort, der nicht gerade optimal zum Betrieb mit so wichtigen HDDs ist. Zum einen ist unsere Wohnung und insbesondere die obere Etage, wo der Server steht, das reinste Fußbodenbebengebiet. Wenn das Kind nur mal die Wohnungstür zufliegen lässt, wackelt die ganze Bude. Und man sollte zusehen, dass man möglichst sachte auf dem Fußboden herumläuft, weil es immer Erschütterungen gibt. Zum anderen steht der Server im Moment auf einer Rechner-Halterung unter dem Schreibtisch, die konstruktionsbedingt nicht gerade der sicherste Ort vor tobenden Katzen und Stößen gegen den Tisch ist. Da muss ich mir auf jeden Fall noch was Besseres einfallen lassen.

Im Übrigen denke ich mal wieder über eine neue Datensicherheits-Strategie nach, wo ich doch jetzt so ne schöne große HDD hab. Mit jedem Problem lernt man ja dazu und wird vorsichtiger. Die ganze Idee, einen Server zu betreiben, kam ja auch nur dadurch, dass mir meine externe Festplatte damals kaputt gegangen ist und ich froh sein konnte, dass ich gerade noch so alle Daten sichern konnte. Deswegen auch RAID1. Und wieder mal macht Schaden klug, weshalb ich jetzt zusätzlich noch regelmäßige Backups machen möchte. Mit USB ist das aber eher ungünstig. Ich meine, ich könnte die Platte natürlich an eine Zeitschaltuhr hängen, aber wenn dann mal ein Backup etwas mehr Zeit in Anspruch nimmt, als ich kalkuliert habe… Und mehr Zeit in der Kalkulation bedeutet bei schnelleren Backups unnötig höheren Stromverbrauch. Es würde sich aber z.B. auch anbieten, dass ich mir einen 5,25″ Wechselrahmen kaufe und damit gleich mal einen der beiden offenen Schächte zu mache. Das war vor ein paar Monaten sowieso mein Plan gewesen. Dann könnte die Platte bei Bedarf gemountet und nach dem Backup einfach wieder ausgehangen werden. Würde mich nur mal interessieren, was die dann noch an Strom zieht. Aber ich denke, dass das eine der sinnvolleren Möglichkeiten sein dürfte.

Am Sinnvollsten wäre natürlich ein zweiter Server, der sich per Zeitschaltuhr automatisch einschaltet, das Backup von sich aus in Gang setzt und danach wieder runterfährt. Das wäre allerdings mal wieder mit Anschaffungskosten verbunden.

Im Moment tendiere ich, glaube ich, am ehesten zur Wechselrahmen-Variante.

Veröffentlicht unter Allgemein, Hardware, Linux | Hinterlasse einen Kommentar

vServer und vServer…

Ich bin gerade durch Zufall auf den Hoster netcup gestoßen und habe mir nicht ohne Skepsis die scheinbar überwältigenden vServer-Angebote angesehen.

Mir drängte sich gleich die Frage auf: Wie kann ein unbekannter Hoster solche Leistung zu solchen Preisen bieten?

Ich habe ja selbst mal ein paar Minuten mit dem Gedanken gespielt, mittels Omas geiler 32-MBit-Anbindung vServer-Hosting anzubieten, weil ein 24/7 verfügbarer Server für mich alleine einfach viel zu teuer in der Unterhaltung ist. Ich musste aber relativ schnell zu dem Schluss kommen, dass sich das absolut nicht rechnen kann, wenn das auch noch ein bisschen was mit Qualität zu tun haben und gleichzeitig vom Kunden bezahlbar sein soll.

Wie also machen die von netcup das?

Die Antwort auf diese Frage weiß W-Mark Kubacki: Gar nicht. Sie streichen einfach den Punkt Qualität aus ihren Ansprüchen. Mehr noch, sie verkaufen dem Kunden auch die Katze im Sack. Was sie treiben, lässt sich bestenfalls als Irreführung bezeichnen. Aber wenn sich zwischen Februar, bzw. Juni 2010 und heute nichts an der konkreten Umsetzung ihrer vServer geändert hat, werben sie sogar mit m.E.n. falschen Tatsachen. Sie versprechen dem potenziellen Kunden nämlich „vollen Root-Zugriff“. Ich weiß ja nicht, wie die das definieren oder was sie erwarten, wenn ihnen jemand sowas verspricht, aber für mich bedeutet das, dass ich alles auf dem System machen kann.

Insgesamt entsteht der Eindruck, man bekäme eine eigene virtuelle Maschine mit vollständigem Betriebssystem. Das ist es, was man eigentlich allgemein unter einem vServer verstehen kann.

Aber anscheinend genügt für diese Bezeichnung auch schon ein virtualisiertes Betriebssystem ohne eigenen Kernel, ohne eigene virtuelle Hardware und ohne die Möglichkeit, „sein“ System völlig nach eigenem Belieben zu konfigurieren.

Gut zu wissen. Auf sowas sollte man bei erschlagenden vServer-Angeboten also unbedingt achten.

Und natürlich immer schön Erfahrungsberichte von Kunden lesen. Denn selbst wenn man weiß, auf welche Art von Hosting man sich einlässt (ganz gleich, ob Webspace, vServer, Root-Server, Managed Server oder was auch immer), hat man noch lange kein Bild über den Service und die Verfügbarkeit. Und in den beiden Punkten scheint netcup offenbar auch nicht gerade zu glänzen.

Veröffentlicht unter Allgemein, Hosting | Hinterlasse einen Kommentar

Neue Haut in alten Kleidern

Es ist vollzogen. Ich bin auf Xfce umgestiegen.

Ich hätte es ja nie geglaubt. Ich fand Xfce immer minderwertig gegenüber GNOME. Im Vergleich mit GNOME 2 war es das ja auch. Und ich wusste nie, warum Menschen Xfce verwenden, wenn sie ein System haben, auf dem problemlos auch GNOME läuft. Ok, so ganz kann ich das auch jetzt noch nicht verstehen, zumindest nicht, warum man Xubuntu verwenden sollte, das ja immerhin fast genau so ein Ressourcenfresser wie Ubuntu mit GNOME ist, aber eben „nur“ Xfce mit seiner im Vergleich deutlich reduzierten Funktionalität mitbringt.

Ich habe ja lange überlegt, was ich machen soll, wenn GNOME 2 den Löffel abgeben muss. Xfce war eine Option, aber so ganz ernst war mir das eigentlich nicht. Wer nimmt schon gerne den kleinen Bruder, wenn man den großen gewohnt ist?

Nun, da GNOME 3 das GNOMEsche Bedienkonzept revolutioniert hat, gibt es den großen Bruder aber nun mal nicht mehr und der kleine hat nun konkurrenzlos die Alleinstellung in seiner Nische.

Meine Überlegungen, mit dem Problem umzugehen, gingen über E17, Openbox und gänzlichen Verzicht auf eine grafische Oberfläche. Letzteres hat sich in der letzten Zeit eigentlich immer mehr zur favorisierten Lösung erhoben, nachdem ich den Terminal-Multiplexer tmux entdeckt habe. Gäbe es da nicht ein Problem: Da die meisten Webseiten einfach nicht für komfortable Bedienung in einem Textbrowser ausgelegt sind, brauche ich unbedingt einen grafischen Browser. Und da ich eine Zwischenablage brauche, die den Browser mit allem Anderen verbindet, ist ein ständiger Wechsel eher weniger sinnvoll. Und damit muss da dann schon ein bisschen mehr sein und es muss sich insgesamt angenehm bedienen lassen.

Letztlich habe ich meine Vorbereitungen weitgehend vor mir her geschoben, bis die GNOME Shell dann eines Tages auf meinem Desktop prangte. Nach ein paar Stunden fand ich es dann auch nicht mehr so schlimm, wie ich befürchtet hatte. Ich hatte ja damals schon so einige Vorzüge der GNOME Shell festgestellt und mein Eindruck hat sich nun eher noch verbessert als verschlechtert. Problematisch finde ich nach wie vor das Kontrollzentrum und die spärlichen Einstellungsmöglichkeiten. Der dconf-editor (Pendant zum gconf-editor) und die GNOME-Tweak-Tools helfen auch nur sehr begrenzt weiter. Es ist einfach nicht mehr das, was es war.

Sehr praktisch finde ich das neue Anwendungsmenü. Windows-Taste drücken, ein paar Buchstaben eingeben, Enter, Programm startet. So lieb ich das!

Ich finde, man kann mit GNOME 3 durchaus arbeiten. Ich denke, ich könnte damit auch leben. Aber irgendwie ist mir mein altes Look&Feel dann doch lieber. Es war ja nicht umsonst so stark angepasst, sondern weil ich das so am angenehmsten finde. Und am nächsten komme ich da immer noch dran, wenn ich es auf Xfce portiere. Also hab ich das nun mal gemacht. Und ich muss sagen, ich bin positiv überrascht. Ich kann nicht behaupten, dass ich irgendwas wirklich vermisse. Als Dateimanager nutze ich PCManFM, da Thunar kein Tabbing unterstützt und Nautilus nicht mehr auf GTK+ 2.0 basiert und sich somit nicht wirklich gut in den Desktop integriert. Mir fehlt noch die Temperatur meiner Festplatte im Panel, ansonsten ist eigentlich alles wie vorher.

Wirklich erstaunlich. Ich war ja bisher immer etwas skeptisch, wenn Zweckoptimisten und solche, die Xfce sicherlich nie als Option für sich selbst sehen würden, sondern eher auf GNOME 3, Unity oder KDE umsatteln dürften, die Meinung vertreten haben, Xfce wäre eine Alternative und bekäme durch die Wandlung von GNOME nun die Möglichkeit, sich gegenüber einer breiten Zielgruppe zu positionieren und aus dem Schatten seines großen Bruders zu treten. Aus derartigen Beiträgen lässt sich für gewöhnlich recht deutlich herauslesen, dass sie von Menschen geschrieben sind, die alles benutzen würden, nur nicht Xfce, und sich in der Regel über Unity und GNOME 3 freuen oder sich zumindest eher damit abfinden, als zu Xfce zu wechseln.

Erstaunt war ich darüber, dass einige namhafte Linux-Entwickler von GNOME zu Xfce gewechselt sind (die anderen sind größtenteils zu spartanischeren Lösungen übergegangen). Ich habe mich gefragt, ob sie mit diesem „Downgrade“ (GNOME => Xfce) wohl wirklich glücklich werden.

Tja, nun habe ich es selbst gemacht und empfinde das eigentlich gar nicht so, dass ich das Niveau meiner Desktop-Umgebung großartig gesenkt hätte. Das mag vielleicht auch daran liegen, dass ich meinen angepassten Desktop weitgehend übernehmen konnte. Anders ist abgesehen vom Dateimanager eigentlich nur das Panel, das unter GNOME zuletzt nur noch der versteckte Parkplatz für Systeminformationen war und es auch jetzt wieder ist.

Ich habe auch schon einen Vorteil von Xfce gegenüber dem alten GNOME entdeckt: Es ist möglich, mehrere Desktop-Hintergründe anzugeben, die zufällig angezeigt werden. Einen automatischen Wechsel habe ich da zwar noch nicht bemerkt oder Einstellungen dazu gefunden, aber es ist ja keine große Sache, mal schnell einen Cronjob mit dem Befehl

xfdesktop --reload

zu versehen.

Mein Fazit: Ich bin zufrieden.

Ich werde ab jetzt dreigleisig fahren:

  1. Xfce mit meinem guten alten Look&Feel.
  2. GNOME 3 lässt sich vollständig und komfortabel mit der Maus bedienen, was es sehr praktisch macht, wenn man gerade im Bett liegt.
  3. Wenn ich keine grafische Oberfläche brauche, tmux parallel, weil es manchmal ohne GUI durchaus bequemer ist.
Veröffentlicht unter Allgemein, Desktop, Linux, Software | Hinterlasse einen Kommentar

Frischluft für den Laptop

Da meine Festplatte heute mal wieder Grillfest feiert, hab ich kurzerhand mal meinen Ventilator (so eine Säule, die Luft nach einer Seite rauspustet) neben den Laptop gestellt, an die Stelle, wo die HDD sitzt. Und siehe da, Party vorbei. Die Festplatte darf die Würstchen heute kalt servieren und ich backe meine Spiegeleier in Zukunft wieder auf der Herdplatte.

Im Ernst, allein, dass der Venti gegen das Gehäuse bläst und die kalte Luft auch drüber und drunter durch zieht, macht für das Innenleben sage und schreibe ca. 20 Grad aus! Das ist ne Menge! Der interne Lüfter läuft schon gar nicht mehr.

Ich glaube, ich werde mir jetzt wirklich mal einen externen Lüfter kaufen, auf den man den Laptop einfach drauf stellt. Es reicht ja offenbar nicht, den Rechner grundsätzlich auf ein Brett zu stellen, weil sich die Hitze darunter trotzdem staut. Und mitnehmen kann ich das Teil dann auch, da ich ja jetzt, wo mein Ableger eine eigene Tasche für den Eee PC bekommen hat, wieder Platz in meiner eigenen habe. 😀

Update (Sa, 09/03 23:47): Also, heute Nachmittag war das ja noch angenehm. Jetzt, wo mir der Venti den ganzen Tag die Hitze aus dem Zimmer geblasen hat und keine neue mehr nachkommt, wird’s hier doch ganz schön frostig. Mann! Das Ding soll nicht mich kühlen, sondern den Rechner, resp. die Festplatte! Außerdem nervt es wie Sau! Ich sollte sehen, dass ich mir so schnell wie möglich einen richtigen Notebook-Lüfter anschaffe!

Übrigens, Versuche, das Verhalten der Festplatte mit hdparm zu manipulieren oder sie durch mounten mit der Option noatime (speichert keine Lesezugriffe) zu entlasten, haben die Temperatur auch nicht wirklich beeinflusst.

Sommerliche Temperaturen wie heute gepaart mit etwas stärkerer Auslastung und dem engen Gefängnis eines Laptop-Gehäuses sind eindeutig Gift für jede Festplatte!

Na ja, laut Wetterbericht soll es dieses Jahr wenigstens nicht mehr warm werden.

Update (Di, 09/06 10:26): Man könnte fast meinen, manchen Wikipedia-Autoren sollte man das Schreiben verbieten:

https://secure.wikimedia.org/wikipedia/de/wiki/Self-Monitoring,_Analysis_and_Reporting_Technology#.C3.9Cbliche_Parameter

Unter Drive Temperature:

Hohe Temperaturen (ab 40 °C) haben erst nach drei Jahren Auswirkung. In diesem Jahr verdoppeln sie die Ausfallwahrscheinlichkeit. Danach verlieren sie ihre Bedeutung wieder. Über alle Alter gemittelt sind Temperaturen unter 25 °C weit gefährlicher als solche über 40 °C. 20 °C verdoppeln, 15 °C verdreifachen die Ausfallrate; gemessen wurde dabei bis 52 °C. Manche Hersteller verwenden ungenaue oder zu weit von den Sensoren entfernte Hitzemesser.

Ah ja… Und das ist natürlich bei jeder Festplatte und unter allen Umständen genau gleich. Logisch, werden ja alle in einer Serie produziert, seit 30 Jahren immer dasselbe und Einsatz auch immer gleich.

Könnte man meinen. Ich hab mir aber dann doch mal das verlinkte PDF-Dokument zu Gemüte geführt: http://labs.google.com/papers/disk_failures.pdf

Ich hab den Text nicht gelesen, sondern mir nur die Bilder angesehen. Und auf Seite 6 sind tatsächlich die Diagramme, auf die sich der Wiki-Autor wohl bezieht. Er hat sich also lediglich herzlich schlecht ausgedrückt, dass man den Eindruck bekommt, er würde seine eigenen Erfahrungen verallgemeinern, was er ja offensichtlich doch nicht tut.

Auf meinem ständig überhitzten ASUS (AMD-CPU, dedizierte ATI-Graka und völlig verstaubt – klar, dass das heiß wird – Putzen hat aber auch lediglich dafür gesorgt, dass er nicht mehr dauernd ausging; trotzdem war er immer noch viel zu heiß und tierisch laut – dann doch lieber Intel-CPU und Onboard-Grafik, wie ich das jetzt habe) hatte ich mir angewöhnt, die CPU-Taktstufen und Temperaturen immer im Auge zu behalten. Ich kann gar nicht mehr ohne. War ich aber damals um meine CPU bedacht, so ist es aktuell eher die Festplatte, der ich verstärkte Aufmerksamkeit schenke. Ich wüsste nur zu gerne mal, wo genau der Sensor sitzt, der seine Daten an das Panel-Applet liefert. Die Zahlen sind doch manchmal etwas irritierend.

Ich habe für die Festplatte zwei Anzeigen. Die eine zeigt mir den letzten SMART-Wert, wird also nur in größeren Abständen aktualisiert. Die andere zeigt mir die aktuelle Temperatur. Diese beiden Werte passen manchmal irgendwie gar nicht zusammen (wenn der SMART-Wert frisch aktualisiert ist, natürlich), meistens hingegen schon. Dagegen ist da noch irgendein anderer Sensor, dessen Ausgaben darauf schließen lassen, dass er ganz in der Nähe der CPU sitzen muss. Die CPU hab ich die letzten Monate gar nicht mehr gesehen, weil die Anzeige seit einem Update nur noch „Error“ ausgibt. Aber da reicht auch besagter Mainboard-Sensor. Seltsam finde ich nun aber, dass diese Sensoranzeige früher immer recht konform mit der CPU-Temperatur ging, mir neuerdings aber auffällt, dass sie ab ca 37 Grad immer exakt dasselbe anzeigt wie die von der Festplatte. Und die Temperaturen gehen auch immer exakt zeitgleich rauf oder runter. Nur kann es nicht derselbe Sensor sein, denn unter 37 Grad zeigt er immer ein paar Grad mehr an als die Festplatte.

Da mir dieses Verwirrspiel langsam aber sicher auf den Keks geht, habe ich nun meine Sensoren noch mal neu eingelesen, mir die Werte mal ausgeben lassen und das Panel neu gestartet:

sudo sensors-detect
sudo /etc/init.d/module-init-tools start
sensors
killall gnome-panel

Eine gute Entscheidung, wie sich herausstellte, als mir nun plötzlich meine CPU-Kerne wieder angezeigt wurden (in einem anderen Eintrag als zuvor in den Applet-Einstellungen).

Bezüglich der Festplattentemperatur bringt mich das aber wohl immer noch nicht weiter. Aber ich muss das jetzt erst mal eine Weile beobachten.

Ich möchte die Temperatur ja gerne ablesen können und mich nicht immer nur auf meine Nase verlassen müssen. Ja, man kann das riechen, wenn die Festplatte heiß wird. Vorher kann man natürlich auch schon mit der Hand auf dem Gehäuse feststellen, ob es warm ist oder nicht. Aber wenn ich Geruch, Gehäusetemperatur und angezeigte Werte vergleiche, scheint die fühlbare Temperatur doch etwas trügerisch zu sein. Da ist die Nase deutlich zuverlässiger. Aber bevor die anschlägt, ist es eh schon viel zu spät und viel zu heiß.

Im Moment scheint die Temperatur in Ordnung zu sein (na ja, meistens knapp über 40 Grad, was laut Wikipedia ja schon als „hohe Temperatur“ gilt). Das mag zum einen an der Raumtemperatur liegen, aber natürlich auch an der Belastung. Es scheint auch so, dass die Festplatte tierisch aufdreht, wenn der Swap genutzt wird. Ich sollte mir also dringend auch mal einen zweiten RAM-Riegel kaufen. Am besten auch noch eine SD-Karte, die ich dann als Swap nutze. Blöd nur, wenn ich dann den Kartenleser gerade mal brauche. Das kommt zwar normalerweise nicht vor, aber kann schon mal passieren.

Update (10:47): Also, mit dem deklarierten „Echtzeit“-Festplatten-Sensor scheint tatsächlich was nicht zu stimmen.

Ich habe gerade hddtemp veranlasst, alle 5 Sekunden die Temperatur zu checken und dann mal ein paar Abfragen gemacht:

sudo dpkg-reconfigure hddtemp  # hier die bei der entsprechenden Frage die Zeit einstellen - NICHT VERGESSEN, das hinterher wieder auf 2 Stunden einzustellen, sonst kann die Platte nicht "schlafen"!
sudo hddtemp /dev/sda

Dabei kamen andere Werte zum Vorschein als mir das Panel-Applet ausgibt. Das Applet scheint übrigens auf ibm-acpi zurückzugreifen, wenn man danach geht, wo es in den Einstellungen zu finden ist. Also da mal weiter forschen… 😉

Veröffentlicht unter Administration, Allgemein, Hardware, Linux | Hinterlasse einen Kommentar

Install Linux like Windows XP

Durch das Buch Linux von Johannes Plötner und Steffen Wendzel mehr oder weniger aufgefordert, installiere ich mir gerade nun endlich auch mal Slackware (hatte ich ja schon seit Ewigkeiten mal vor).

Anders als man bei einer Selberbau-Distribution erwarten könnte, ist die Installation sehr einfach und intuitiv. Im Vergleich zu Arch wird der Anwender noch besser an die Hand genommen und vieles ist vereinfacht.

Im Grunde gestaltet sich die Installation ähnlich wie die von Windows XP. Und dauert auch genau so lange. Und braucht ebenfalls überdurchschnittlich viel Platz. Dennoch gibt es Unterschiede. So kann man bei Slackware natürlich – ähnlich wie bei Arch, jedoch kompakter und einfacher gestaltet – die zu installierenden Pakete auswählen. Unter anderem ist sogar KDE standardmäßig ausgewählt. Weitere Fragen entsprechen nach meiner inzwischen dürftigen Erinnerung in Art und Zeitpunkt tatsächlich weitgehend der bei einer XP-Installation. Nur dass es nicht irgendwann auf eine grafische Oberfläche geht, die einem dann ein einstündiges Unterhaltungsprogramm mit lustigen Bildchen und reichlich Lesestoff bietet und zwischendurch mit weiteren Fragen nervt, sondern alles eben auf der Konsole bleibt, wo man den aktuellen Installationsfortschritt verfolgen kann. Vielleicht war das bei früheren Windows-Versionen ähnlich, ich weiß es nicht mehr. Daher kann ich da gerade nur starke Ähnlichkeiten zu einer XP-Installation sehen.

Man bekommt bei den Fragen immer eine Option vorgeschlagen, die man nehmen kann, aber nicht muss. Lustigerweise gehört zu diesen Vorschlägen auch die standardmäßige Nutzung der Maus auf der Konsole – ohne X. 😀

Bemerkenswert finde ich hier mal wieder die Ansicht vieler Windows-Nutzer, Linux sei ein Frickelsystem. Bemerkenswert deshalb, weil dieses Frickelsystem Slackware sich in ganz ähnlicher Weise installieren lässt wie das ach so intuitiv einfache Windows XP, während es haufenweise Linux-Distributionen gibt, die eine deutlich einfachere Installationsroutine anbieten – teils auch einfacher als die von Windows 7.

Veröffentlicht unter Allgemein, Distributionen, Linux, Tests | Hinterlasse einen Kommentar

openSUSE: Linux für Windows-Nutzer

Wer hat eigentlich behauptet, Linux sei ein Frickelsystem für altmodische und langweilige Kommandozeilen-Nerds?

Seit etwa einer Stunde kann ich diese Ansicht beim besten Willen nicht mehr nachvollziehen.

Ich habe mir nun abermals openSUSE installiert, ein System, bei dem ich schon das eine oder andere Mal vergessen hatte, warum ich es nicht mag, aber es immer wieder wusste, wenn ich ihm noch mal eine Chance gegeben habe.

Nun hat es von mir wieder mal eine solche Chance bekommen, allerdings mit einem anderen Blick darauf. Bisher habe ich darin immer vergeblich ein System gesucht, das ich bedienen möchte. Nun lebe ich aber mit einem Windows-Nutzer zusammen, der seit ein paar Monaten wieder einen eigenen Rechner hat, den er sogar freiwillig anmacht. So konnte ich seinen Umgang mit einem Betriebssystem kennen lernen und erfahren, was ihm dabei wichtig ist, womit er arbeiten kann und wie er sich wohl fühlt.

Gerade bin ich dabei, mir YaST2 ein wenig genauer anzusehen und um es in einem Satz zusammen zu fassen: Das ist ja wie Windows 7!

Na ja, nicht ganz. Ich finde, openSUSE vereint in sich die Vorzüge beider Welten. Es lässt sich administrieren wie Windows 7, aber es ist Linux.

Man merkt, dass openSUSE kein Community-Produkt ist, sondern dass da eine Firma hinter steht, deren Ausrichtung klar auf professionelle Unternehmenssoftware zielt. Und umgekehrt wird mir auch jetzt klar, warum Firmen im Linux-Bereich v.a. auf openSUSE setzen.

Mein Fazit: openSUSE ist das bessere Windows.

Ich würde es wohl nie benutzen, weil es einfach nicht zu mir passt (deswegen bin ich damit auch bisher nie zurecht gekommen, weil ich versucht habe es so zu bedienen wie ich Linux nun mal bediene, das Terminal ootB nicht meinen Ansprüchen genügte und ich mich nur gefragt habe, wofür man diesen ganzen Scheiß eigentlich braucht), aber ich denke, es bringt den Leuten Linux an den Tisch, die nicht ans Buffet gehen können oder wollen.

Kurzum, ich habe gerade angefangen, meine bisherige Hass-Distro #1 wirklich lieb zu gewinnen.

Und ich bin kein Linux-Missionar! Ich möchte nicht mal, dass die ganze Welt Linux benutzt, auch wenn ich es meinem Umfeld so gerne empfehle, weil ich es einfach gut finde.

Eine Distro wie openSUSE mit einem Werkzeug wie YaST2 trägt m.E. wesentlich zur Freiheit bei. Niemand, der eine Bedienung in dieser Art wünscht, ist gezwungen, viel Geld auszugeben, um sich an Microsoft zu verkaufen (ja, ein Paradoxon), sondern hat die Möglichkeit, ein kostenloses und freies System zu verwenden, das ihn nicht vor die Wahl stellt, sich entweder mit einem Bedienkonzept auseinandersetzen zu müssen, das nicht zu ihm passt, oder sich von seinem Betriebssystem bevormunden lassen zu müssen und nicht die Chance zu haben, über seinen Horizont hinaus zu blicken.

Da bekommt die Tatsache, dass man mit Linux alles machen kann und jegliche Freiheit hat, noch mal eine ganz besondere Note!

Veröffentlicht unter Allgemein, Distributionen, Linux, Tests | Hinterlasse einen Kommentar

Mails aus dem exim4-Spool zu „richtigen“ Email-Dateien verarbeiten

Ich habe ja kürzlich den SMTP-Server gewechselt. Um meinen vorherigen, exim4, habe ich mich nie besonders gekümmert. Den wollte halt irgendein Tool irgendwann mal mitinstallieren und da war er dann. Ab und zu kam nach einem Update der Hinweis, root hätte Post, aber die hab ich nie gefunden (und auch nicht gesucht, denn die Nachrichten wurden mir ja während der Installation schon in less zum Lesen gegeben).

So ergab es sich nun, dass exim4 bei der Installation von postfix weichen musste. Bei der Deinstallation wurde ich dann gefragt, ob ich den Spool löschen wolle. Da seien noch Emails drin. Ach was?! Praktischerweise war der Pfad grad mit angegeben. Also schnell mal ins Homeverzeichnis kopiert und Jot Wee Dee. Man will ja schließlich keine Überreste von irgendwelchen alten Programmen auf der Platte haben.

Nun waren diese Mails allerdings mit lauter internem Zeuch für exim4 bestückt und außerdem in Header- und Body-Datei aufgeteilt, sodass ich sie nicht einfach in Thunderbird importieren konnte, um sie endlich mal zu lesen.

Das sah dann beispielsweise so aus:

Header-Datei (1PRMZ2-00023r-B0-H):

1PRMZ2-00023r-B0-H
Debian-exim 102 104
<>
1292062828 0
-ident Debian-exim
-received_protocol local
-body_linecount 22
-max_received_linelength 82
-allow_unqualified_recipient
-allow_unqualified_sender
-frozen 1292062838
-localerror
XX
1
root@***

179P Received: from Debian-exim by *** with local (Exim 4.72)
	id 1PRMZ2-00023r-B0
	for root@***; Sat, 11 Dec 2010 11:20:28 +0100
038  Date: Sat, 11 Dec 2010 11:20:28 +0100
069I Message-Id: 
051  X-Failed-Recipients: root@***
029  Auto-Submitted: auto-replied
068F From: Mail Delivery System 
034T To: root@***
059  Subject: Mail delivery failed: returning message to sender

Body-Datei (1PRMZ2-00023r-B0-D):

1PRMZ2-00023r-B0-D
This message was created automatically by mail delivery software.

A message that you sent could not be delivered to one or more of its
recipients. This is a permanent error. The following address(es) failed:

  root@***
    Mailing to remote domains not supported

------ This is a copy of the message, including all the headers. ------

Return-path: 
Received: from root by *** with local (Exim 4.72)
	(envelope-from )
	id 1PRMYi-00023i-4I
	for root@***; Sat, 11 Dec 2010 11:20:08 +0100
Date: Sat, 11 Dec 2010 11:20:08 +0100
Message-Id: 
From: Anacron 
To: root@***
Subject: Anacron job '***' on ***

Jo, ne, is klar, dass die Mails alle nicht angekommen sind. Da, wo hier Sternchen stehen, steht in den Mails mein Rechner- und der Domain-Name – jedenfalls ein Teil davon. Denn exim4 konnte es offenbar überhaupt nicht verschmerzen, dass dieser einen Unterstrich enthält, und hat den Namen an dieser Stelle abgeschnitten. Also flogen die Mails alle konsequent ins Nirvana.

Jedenfalls hab ich jetzt eben mal die Dateien unter die Lupe genommen, mir ihren Aufbau angesehen und ein kleines Script geschrieben, das mir aus den Fragmenten richtige Mails zusammensetzt:

#!/bin/bash

maildir="mails/"									# Zielverzeichnis für die Mails

function get_filenames() {
	filenames=""
	for i in $(ls | egrep 'H$'); do							# Alle Dateinamen, die auf H enden (das sind die Header-Dateien)
		filenames+="$(sed 's/-H$//g' <<<$i) "					# Die letzten beiden Zeichen ("-H") des jeweiligen Eintrags entfernen und den Namen (leerzeichengetrennt) anhängen
	done
}

function mkheader() {
	hfile="${filename}-H"								# Header-Datei
	cutline=$(egrep -n "^$" $hfile | tr -d ':')					# Leerzeile finden
	header=$(sed -e '1,'${cutline}'d' $hfile | sed 's/^[0-9][0-9][0-9][A-Z ] //g')	# Zeile 1 bis Leerzeile entfernen und erste Spalte löschen
}

function mkbody() {
	bfile="${filename}-D"								# Body-Datei
	body=$(sed -e '1d' $bfile)							# 1. Zeile löschen
}

get_filenames										# Dateinamen ermitteln (siehe Funktion oben)

for filename in $filenames; do
	mkheader									# Header extrahieren (siehe Funktion oben)
	mkbody										# Body extrahieren (siehe Funktion oben)
	echo -e "$header\n\n$body" > "$maildir$filename.eml"				# Aus jedem Header-Body-Paar eine eml-Datei erstellen
done

Das Script muss im selben Ordner liegen wie die Auswürfe von exim4. Außerdem muss dort noch ein Ordner namens mails/ drin sein. Dann einfach das Script ausführen und schon liegen die fertigen Emails alle brav im Unterordner.

Mit dem Thunderbird-Addon ImportExportTools lassen sie sich dann auch alle mit einem Rutsch in Thunderbird importieren. Ich empfehle hierzu einen extra Unterordner in Thunderbird anzulegen, damit man sie alle schön übersichtlich beieinander hat und der Reihe nach durchgehen kann. Ansonsten könnte man erst mal mühsam auf die Suche gehen…

Veröffentlicht unter Allgemein, Coding, Email, Linux | Hinterlasse einen Kommentar