Remote-Virtualisierung: KVM kann…

Oh Mann, QEMU, bzw. KVM ist die reinste Wissenschaft. So viele Optionen, so viele Fähigkeiten, die bei den dreißigtausend Einstellungsmöglichkeiten in VirtualBox irgendwie nicht so zahlreich vorhanden sind.

Abgesehen davon, dass KVM ganze Architekturen emulieren kann, können z.B. auch mehrere Graka-Typen virtualisiert werden. Und so viel Anderes, was ich bis jetzt noch gar nicht in der Breite entdecken konnte.

Komme ich also einfach mal zu den Punkten, die QEMU/KVM kann und dazu motivieren, benutzt zu werden.

Da wäre zunächst Unity, was ootB läuft. Schon mal schön, auch wenn mich Ubuntu an sich nicht wirklich interessiert und ich Unity für ziemlichen Dummfug halte. Aber dass es läuft, ist auf jeden Fall ein gutes Zeichen, was QEMU angeht.

Ich hab es jetzt auch geschafft, Netzwerkbrücken zu erstellen. Also, da ist VirtualBox eindeutig komfortabler! Eine Einstellung, fertig. Bei QEMU ist es ein elendes Gebastel, bei dem ich mir nicht mal ganz sicher bin, ob ich mit dem Ergebnis, bzgl. Sicherheit so wirklich einverstanden bin.

Aber um das mal kurz zu dokumentieren:

1. VMs nummerieren

Aus organisatorischen Gründen (genauer gesagt, um in Remmina jede VM eindeutig speichern zu können) bekommt jede eine Nummer von 1 aufwärts, die bisher nur als Port diente, aber jetzt bei den Netzwerkbrücken in mehrfacher Hinsicht ebenfalls nützlich ist, zum einen zur Generierung der MAC-Adressen, zum anderen zur fortlaufenden Vergabe der IP-Adressen im LAN.

2. Mac-Adressen-Dummy erstellen

Wir benötigen beliebige MAC-Adressen. Hier ist die Nummerierung von Vorteil, weil die Nummern der VMs einfach als letztes Byte in eine Standardvorlage eingefügt werden können. Diese Vorlage lässt sich bequem per Befehl zufällig generieren:

tr -dc 'A-F0-9' </dev/urandom | fold -w 10 | sed 's/\(..\)/\1:/g' | head -n1

Das Ergebnis sieht dann z.B. so aus:

6A:65:7F:C0:E7:

Die ersten fünf Bytes einer MAC-Adresse.

3. Netzwerkbrücke einrichten

Jetzt lesen wir diese Anleitung und richten danach eine Netzwerkbrücke ein (wie gut das Script da drin funktioniert, weiß ich nicht; ich bin an der Stelle erst mit Lesen angekommen, als ich mein eigenes schon fertig hatte).

4. VM-Manager erstellen

Damit man nicht jedes Mal kilometerlange Befehle abtippen muss, um eine VM zu starten, schreiben wir uns einen kleinen VM-Manager, der VMs aus Config-Dateien erstellt und für temporäre VMs ein paar Parameter entgegen nimmt und den Rest mit Standardwerten auffüllt. Auch das manuelle Erstellen und Löschen der tap-Brücken kann man sich sparen, weil das Script sich auch darum kümmert.

Wir erstellen also eine Datei ~/bin/vm-go mit folgendem Inhalt:

#!/bin/bash

qemu_dir="<Verzeichnis, wo die virtuellen Festplatten liegen>"
cdrom_dir="$qemu_dir/CD-ROMs"
config_dir="$qemu_dir/config"
def_mac="<Oben erstellter MAC-Adressen-Dummy>"
def_password="<Standardpasswort>"

[ "$2" != "-" ] && hda="$2"	# -hda nüscht
[[ "$3" && "$3" != "-" ]] && cdrom="$3"	# -cdrom nüscht
[[ "$4" && "$4" != "-" ]] && boot="$4" || boot="c"	# -boot c
[[ "$5" && "$5" != "-" ]] && memory="$5" || memory="512"	# -m 512
[[ "$6" == "1" ]] && bridge=1 || bridge="nein"	# keine Netzwerkbrücke
[[ "$7" && "$7" != "-" ]] && port="$7" || port="50"	# -vnc :50,password
[[ "$8" && "$8" != "-" ]] && password="$8" || password="$def_password"	# Passwort, das übergeben wird: <Standardpasswort>

[[ "$1" != "-c" && "$1" != "-t" ]] && {
	echo -n "Usage: vm-go [-c für Config, -t für temporäre Konfiguration] [Festplatte] [CD-ROM]"
	echo " [Boot (c oder d)] [RAM in MB] [Netzwerkbrücke (1 oder 0)] [VNC-Port minus 5900 (1-99)] [Passwort]"    
	echo "Fehlende Angaben sind mit \"-\" zu ersetzen, wenn danach noch welche kommen."
	echo "Standard: vm-go (-t) HDD=leer CD-ROM=leer Boot=c RAM=512 Brücke=0 Port=50 Passwort=<Standardpasswort>"
	exit
}

[ "$1" == "-c" ] && . "$config_dir/$2.conf"

echo
echo "HDD:      $hda"
echo "CD-ROM:   $cdrom"
echo "Boot:     $boot"
echo "RAM:      $memory MB"
echo "Bridge:   $([ "$bridge" == "1" ] && echo "ja" || echo "$bridge")"
echo "VNC-Port: $[port+5900]"
echo "Passwort: $password"
echo

[ "$hda" ] && hda=" -hda $qemu_dir/$hda"
[ "$cdrom" ] && cdrom=" -cdrom $cdrom_dir/$cdrom"
boot=" -boot $boot"
memory=" -m $memory"
vnc=" -vnc :$port,password"

[ "$bridge" == "1" ] && {
	tap=$(sudo /usr/sbin/tunctl -b -u $(whoami) -g kvm)
	macaddr="$def_mac$([ "$port" -lt "10" ] && echo "0$port" || echo "$port")"
	net=" -net nic,vlan=0,macaddr=$macaddr,model=virtio -net tap,vlan=0,ifname=$tap"
}

echo "change vnc password $password" | kvm$hda$cdrom$boot$memory$vnc$net -k de -monitor stdio

[ "$bridge" == "1" ] && {
	sudo /sbin/ifconfig $tap down
	/usr/sbin/tunctl -d $tap > /dev/null
}

Achtung! Das Script prüft nicht auf fehlerhafte Eingaben! Bestenfalls gibt es Beschwerden von den im Script aufgerufenen Befehlen.
Außerdem ist der QEMU-Monitor nicht zu gebrauchen, wenn die VM mit diesem Script gestartet wurde.
Und im Übrigen sollte beachtet werden, dass das Script sudo-Befehle ausführt. Da man aber dazu kein Passwort eingeben muss, werden darauf folgende sudo-Befehle weiterhin nach einem Passwort fragen (was gut ist).

5. Ordner und Dateien erstellen

Im Script ist ja z.B. die Angabe zu machen, wo die Festplatten liegen. Dieses Verzeichnis benötigt die Unterverzeichnisse CD-ROMs und config. Alle drei Verzeichnisse sind schnell angelegt:

mkdir -p <Festplattenverzeichnis>/CD-ROMs <Festplattenverzeichnis>/config

In das Config-Verzeichnis kann man nun – wer hätte das gedacht? – Config-Dateien für die VMs legen. Diese könnten z.B. so aussehen:

hda="Ubuntu.img"
memory=1024
port=5
bridge=1
password="neuesPW"

Die Festplatte heißt Ubuntu.img. Als Port ist die 5 eingestellt, was zur Folge hat, dass sie via VNC auf dem Port 5905 erreichbar ist. Außerdem wird eine Netzwerkbrücke verwendet, wobei das letzte Byte der MAC-Adresse „05“ lautet. Und um sich per VNC aufschalten zu können, muss man das eingetragene Passwort übergeben.

Man kann in den Config-Dateien beliebig Werte weglassen. Die Zeilen müssen dann aber auch ganz aus der Datei raus, da die Werte sonst leer sind und nicht mit Standardwerten gefüllt werden.

Gespeichert werden müssen die Dateien unter <Name der VM>.conf.

6. Festplatten- und CD-Images

Die Festplatten erstellt man auf herkömmliche Weise am besten mit:

qemu-img create -f qcow2 <Name der VM>.img 80G

(für eine Platte mit dynamischer Größe, die maximal 80 GB groß wird).

CD-Images legt man in den Ordner CD-ROMs.

Hab ich irgendwas vergessen?

Ach ja, wenn eine VM die Netzwerkbrücke nutzt, kann man ihr eine beliebige IP-Adresse im physischen LAN zuweisen oder das einfach dem DHCP-Server im Router überlassen.

Wie man ein internes Netzwerk aufbaut, das nicht nach außen kommunizieren kann, werde ich mir morgen oder so mal zu Gemüte führen.

Update (Fr, 01/27 12:50):

Eine wichtige Sache hab ich hier gestern noch vergessen. Man kann QEMU mit der Option -k de starten, womit das Tastaturproblem erledigt wäre.

Übrigens bin ich natürlich noch dabei, das obige Script weiter zu entwickeln. Eine Sache habe ich hier schon ausgebessert, der Rest kommt vielleicht in einem weiteren Artikel.

Und irgendwas war da doch noch ganz wichtig zu erwähnen… Ich denke immer wieder dran, aber wenn ich es schreiben will, ist es prompt wieder weg…

Veröffentlicht unter Allgemein, Linux, Netzwerk, Virtualisierung | Hinterlasse einen Kommentar

Windows und der WLAN-PSK

Manche Dinge muss man nicht verstehen.

Ich hab heute mal unser WLAN etwas optimiert. Router akzeptiert nur noch g-Standard, Kanal gewechselt und TKIP-Verschlüsselung rausgenommen, sodass jetzt nur noch AES geht.

Die Linux-Clients haben es brav gefressen.

Dann schmiss der Gatte seinen Windows-Rechner an und wunderte sich, warum er nicht mehr ins Netzwerk kommt.

Ok, alles mal schnell wieder zurück konfiguriert, damit er wieder rein kam. Dann im Ausschlussverfahren festgestellt, dass es an der Verschlüsselung hing. Musste unter Windows neu konfiguriert werden.

Also wieder TKIP zugelassen und WLAN-Passwort in einer Textdatei auf den Server gelegt, damit der Gatte es sich da abholen konnte. Passwort rüber gezogen, TKIP wieder abgeschaltet und versucht, das Passwort bei Windows in die WPA2-Einstellungen zu kopieren.

Fehlermeldung. Das Passwort dürfte maximal 63 Zeichen lang sein und nur aus den Buchstaben A-F bestehen (da stand bestimmt auch was von Zahlen, aber die Meldung war so schnell wieder weg, dass ich das nicht so schnell lesen konnte).

Also TKIP erst mal wieder eingeschaltet und googlen gegangen.

Plötzlich fiel mir ein, dass da ja unter WPA ein (recht kurzes) maskiertes Passwort stand und darunter eine Checkbox war, mit der man sich das Passwort anzeigen lassen konnte. Also wieder rüber an Gattens Rechner, Checkbox geklickt und – oh Wunder! – da stand genau das Passwort, das ich zuvor schon versucht hatte zu kopieren. Also aus dem Feld raus kopiert, bei WPA2 wieder rein kopiert und plötzlich nahm er es. Kein Murren mehr wegen irgendwelchen Zeichen, obwohl das Passwort natürlich nach wie vor nicht den Vorgaben aus der Fehlermeldung entsprach (von der Länge mal abgesehen).

Wie gesagt, manche Dinge muss man nicht verstehen.

Übrigens komme ich langsam, aber sicher zu dem Schluss, dass ich mich von Windows-Rechnern besser fern halten sollte. Da passieren nur seltsame Dinge. Fenster gehen plötzlich auf, die ich gar nicht haben wollte. Andere Fenster, die ich haben will, gehen nicht auf. Alles ist irgendwie etwas merkwürdig.Und anscheinend nur, wenn ich da dran sitze. Ob das nun bei mir auf ner VM ist oder beim Gatten am Laptop. In meiner VM hatte ich gestern auf einmal für den Bruchteil einer Sekunde auf einmal die Eingabeaufforderung offen, die einige Zeilen ausspuckte. Irgendwas mit „task[irgendwas]“ in der ersten Zeile; den Rest konnte ich nicht mehr lesen. Oder vorhin beim Gatten kam z.B. auf einmal ein BSOD, als ich nur in der WLAN-Konfiguration rumgeklickt hatte. Der Gatte sagt auch, es sei faszinierend. Kaum sitze ich ein paar Sekunden an Windows und mache nichts Besonderes, schon passieren merkwürdige Dinge, die sonst nicht passieren.

Ich sollte besser die Finger davon lassen! 😀

Der Gatte meint ja auch, ich würde immer völlig in Panik geraten, wenn irgendwo ein Fenster plötzlich aufgeht. Ja, bei mir gehen nämlich keine Fenster von selber auf! Plötzlich aufgehende Fenster irritieren mich! Und wie soll ich das bitteschön interpretieren, wenn plötzlich Sachen aufgehen, die ich nicht bestellt hab? Am besten noch mit passender Fehlermeldung, dass das Fenster nicht richtig funktioniert. Hatte ich vorgestern an Gattens Rechner, als plötzlich die Ereignisanzeige aufging. Ich war zwar in der Verwaltung gewesen, wo ein Link zur Ereignisanzeige stand, aber ich hab den nicht angeklickt. Schon gar nicht zweimal, denn das Fenster war ja sogar in doppelter Ausführung auf einmal da. Jeweils mit Fehlermeldung (genauen Wortlaut vergessen).

Das ist ja sowieso total fürchterlich. Bei den Sachen, die man aufmacht, dauert das so lange, dass man schon gar nicht weiß, ob die überhaupt noch kommen. Und andere Sachen sind auf einmal da und es gibt keinen Grund, warum sie da sind.

Schon komisch alles.

Auch, wenn das alles anscheinend nur bei mir passiert, sollten wir vielleicht doch mal die eine oder andere Antivirus Live CD nach dem Rechten sehen lassen…

Veröffentlicht unter Allgemein, Netzwerk, Windows | Hinterlasse einen Kommentar

Remote-Virtualisierung: QEMU oder VirtualBox?

Ich habe nun endlich herausgefunden, was ich immer falsch gemacht habe, dass das so hochgelobte und angeblich so performante QEMU bei mir einfach nie vernünftig laufen wollte. Ich hatte schon mehrfach den Versuch gestartet, unter verschiedenen Distributionen. Aber egal, wie oft ich es anfing, ich hörte immer ganz schnell wieder auf, weil es einfach nur so vor sich hin kroch, bzw. auf meinem alten Laptop, der mit seiner Hardware ja schon lange nicht mehr vorne mitschwimmt, nicht mal eine grafische Oberfläche starten wollte. Also habe ich bis jetzt immer mit VirtualBox gearbeitet, weil das wenigstens funktionierte.

Seit gestern weiß ich, der Wiki-Artikel bei Ubuntuusers ist einfach nur fürn Arsch. Warum den keiner mal so schreibt, dass QEMU so gut läuft wie sie da behaupten, obwohl es ja doch einige Leute bei UU gibt, die QEMU benutzen und bei denen das wohl zu flitzen scheint, ist mir ein Rätsel.

Eine bessere Anleitung gibt es hier. Und dort hab ich auch die Option -machine type=pc,accel=kvm gefunden, mit der QEMU endlich ordentlich läuft. Warum schreibt das eigentlich keiner ins UU-Wiki?

Nun ja, wie komme ich jetzt eigentlich wieder auf QEMU?

Ich habe mich bei VirtualBox an ein paar Dingen gestört.

  1. Es ist ziemlich umständlich, wenn man keine grafische Oberfläche hat.
  2. Per VNC wird immer ein Mauspointer mit übertragen, was zum einen nervt und zum anderen ziemlich unpraktisch ist, wenn man Screencasts machen will.
  3. Unter Debian Squeeze gibt es nur VirtualBox 3.2 (es sei denn, man nutzt Backports). Da kann man so Sachen wie Unity, GNOME-Shell oder Aero für alle Zeit vergessen.

Zu 1.: Mit GUI ist VirtualBox ja schon umständlicher als QEMU, aber man kann sich so durchklicken, es gibt Wizards an allen Ecken, die einem helfen, und alles ist schön übersichtlich. Dort eine VM einzurichten, dauert zwar immer noch länger als mit QEMU eine Festplatte anzulegen und eine VM damit zu starten, aber wenn eine VM einmal eingerichtet ist, braucht man nur noch mal eben klicken. Ohne GUI ist die Einrichtung einer VM aber eine wahrhafte Katastrophe! So viele Parameter, viele Optionen mit kilometerlangen Namen. Mindestens 6 Befehle, bis man eine VM überhaupt mal eingerichtet hat, natürlich jeder davon sowas von kryptisch, dass einem schlecht wird. Das ist auch einem CLI-Freak wie mir dann doch eine Spur zu viel des Guten! QEMU dagegen ist einfach. Ein kurzer Befehl, um die Festplatte zu erstellen, fertig. Danach mit einem Befehl starten, der zwar etwas länger ist als bei VirtualBox, dafür aber relativ eingänglich.

Zu 2.: Das Problem habe ich bei QEMU leider auch. Muss mal sehen, ob sich das irgendwie regeln lässt.

Zu 3.: Ich meine ja, ich hätte Unity und/oder GNOME-Shell schon mal auf dem Laptop in VirtualBox 4.x gesehen. Aber als ich gestern noch mal getestet hab, liefen sie beide nicht. Aero soll wohl angeblich mit der Closed Source Erweiterung laufen, aber das scheint, wenn ich das gerade richtig im Kopf habe, wohl auch nicht mehr als ein Gerücht zu sein. M.W. ist VMWare derzeit die einzige Virtualisierungslösung, die DirectX-fähig ist und Aero zum Laufen bringt.

Jedenfalls habe ich gestern überlegt, ob ich die Unity- und GNOME-Shell-Sachen auf meinem Laptop lassen soll oder mich vielleicht doch auf dem Server zu der Backport-Version durchringe. Es geht unter 4.x, da bin ich mir ganz sicher. Sowas liest man ja auch oft genug im Internet. Ich vermute, dass es gestern nicht klappte, wird an zueinander inkompatiblen Versionen von VirtualBox und den Gasterweiterungen aus den jeweiligen Quellen gelegen haben. Das Gasterweiterungs-ISO, das Virtualbox auf dem Host mitbringt, hab ich nämlich gestern nicht ausprobiert.

Na ja, mit der Geschichte bin ich jedenfalls noch nicht durch.

Ebenso mit einer neuen Frage, die sich auftut. Jetzt, wo QEMU ja so toll läuft, nehm ich dann lieber das? Oder nehme ich beide Virtualisierungslösungen, je nach Bedarf? Und was mach ich womit? Und wie bau ich meine VM-interne Netzwerkstruktur auf (darf ja nicht alles ins physiche LAN, geschweige denn ins Internet)?

Was ist besser? Und wofür? Und wie gehe ich mit den GNOME-basierten 3D-Desktops um?

Der Einfachheit halber würde ich ja am liebsten jetzt wirklich nur QEMU nehmen. Aber VirtualBox scheint mir bessere Netzwerk-Optionen zu bieten. Und wenn da 3D-Desktops laufen und in QEMU nicht? Oder umgekehrt? Und, ach ja, Backports ja/nein?

Und mal wieder ein tolles Beispiel für: Wer die Wahl hat, hat die Qual.

Erinnert mich an das Desktop-Problem. Zu viel Auswahl, jeder kann ein bisschen was, keiner kann alles und es gibt nichts, was wirklich perfekt ist…

Na ja, ich werde mich jetzt auf jeden Fall mal etwas eingehender mit QEMU befassen. Wenn das interne Netzwerke kann, die nicht am Host vorbei kommen, für andere Zwecke Netzwerkbrücken, die ich nicht extra auf dem Host fix einrichten muss, und dazu noch Unity und GNOME-Shell, wird VirtualBox wohl runter fliegen.

Ach, und dann bliebe da noch das Mauspointer-Problem…

Und der Mist mit der Tastaturbelegung…

Wenn sich das alles irgendwo die Waage hält, was die Dinger jeweils können, und ich mich letztlich dazu entschließe, sie beide wahlweise zu verwenden, wird wohl im Zweifelsfall das genommen, was den Host weniger belastet. Aber das muss ich erst noch beobachten.

Btw.: Wenn man sich bei VMWare nicht registrieren müsste, würde ich ja möglicherweise einfach das nehmen. Wobei da aber auch leider kein Server in den Quellen zu liegen scheint:

$ apt-cache search vmware
imvirt - detects several virtualizations
libimvirt-perl - Perl module for detecting several virtualizations
libview-dev - VMware's Incredibly Exciting Widgets
libview2-dbg - VMware's Incredibly Exciting Widgets
libview2 - VMware's Incredibly Exciting Widgets
virt-goodies - A collection of helpful virtualisation related tools
vmfs-tools - Tools to access VMFS filesystems
xmount - tool to crossmount between multiple input and output harddisk images
xserver-xorg-input-vmmouse - X.Org X server -- VMMouse input driver to use with VMWare
xserver-xorg-video-vmware - X.Org X server -- VMware display driver
open-vm-source - Source for VMware guest systems driver
open-vm-toolbox - tools and components for VMware guest systems (GUI tools)
open-vm-tools-dbg - tools and components for VMware guest systems (debug)
open-vm-tools - tools and components for VMware guest systems (CLI tools)
vmware-view-open-client - VMware View Open Client

Sieht aus, als gäbe es da nur einen reinen Client, also nicht mal so ein Einzelplatz-Ding wie der VMWare Player.

Update (16:00): Wie man QEMU ordentlich zum Laufen kriegt, steht tatsächlich doch im UU-Wiki: http://wiki.ubuntuusers.de/KVM
Ein bisschen anders als im QEMU-Buch, aber funktioniert auch. Und ist kürzer. 😀

Außerdem hab ich hier noch was gefunden: http://www.linux-kvm.org/page/Tuning_KVM

Veröffentlicht unter Allgemein, Linux, Netzwerk, Virtualisierung | Hinterlasse einen Kommentar

Remote-Virtualisierung

So, ab jetzt betreibe ich meine VMs auf dem Server.

Hab dort Virtualbox installiert und kann sie per VNC auf den Laptop holen. Über RDP würde das zwar sicherlich viel besser funktionieren (komme ich später zu), aber so bin ich schon mal zufrieden.

Ist auch echt toll! Der Server hat nicht nur mehr Platz für die ganzen virtuellen HDDs, sondern kommt mit dem Betreiben der VMs auch noch viel besser zurecht als mein Laptop. Merkt er fast gar nix von, während mein Laptop für gewöhnlich in die Knie geht und das nächste Grillfest einläutet, erst recht, wenn ich mehr als eine VM gleichzeitig laufen lasse. Macht keinen Spaß so. Ich hatte auf dem Server sogar vorhin 2 VMs am laufen, ohne dass bei den mickrigen 2GB RAM geswappt werden musste.

Per Netzwerkbrücke kommen die VMs auch ins Internet, während der Server selber nicht am Router vorbei kommt, weil ich seiner IP-Adresse ja den Zugang gesperrt hab.

Als Client scheint mir Remmina am besten zu gefallen. Da kann man Verbindungen speichern, Zugangsdaten inklusive.

Die VMs kriegen jeweils ihren eigenen Port, so dass ich mit einem Klick auf jeder drauf bin.

Screencasts kann ich mit pyvnc2swf machen, auch via VNC, aber lokal auf dem Server, um die volle Qualität zu haben. Den Ton dazu nehm ich dann auf dem Laptop auf und schmeiße die Spuren anschließend einfach zusammen. Ich könnte ja in myscreencast noch ne SSH-Verbindung rein packen, um das Ding weiter einsetzen zu können. Dann lässt das Script auf dem Server automatisch den Screencast erstellen, während es sich lokal um den Ton kümmert. Vielleicht erspart es mir dann die Mühe, Bild und Ton halbwegs synchron zu kriegen, wenn beides wieder ungefähr gleichzeitig startet.

Blöd an der ganzen Sache ist nun zum einen die schlechte Qualität bei der Übertragung an meinen Laptop. Aber damit lässt sich leben. Screencasts müssen gut werden. Ich muss nur alles erkennen können. Und da gibt es in Remmina ganz gute Einstellungsmöglichkeiten, um den besten Kompromiss zwischen Bildqualität und Latenzreduktion zu erreichen. Dass ich nur über b/g-WLAN gehe, ist natürlich nicht optimal.

Viel blöder ist aber, dass über die VNC-Verbindung von Virtualbox nur das US-Tastaturlayout übertragen wird. Um meine deutsche Tastatur und Tippweise da irgendwie halbwegs kompatibel zu kriegen, muss ich nun in den VMs das amerikanische Layout einstellen, damit es wieder passt. Dabei verlieren allerdings manche Tasten leider jegliche Funktion und ich kann z.B. keine Umlaute schreiben. Muss mal sehen, ob ich das noch irgendwie behoben kriege. Mit RDP scheint dieses Problem wohl nicht zu existieren.

Aber dafür kann ich nicht das Paket aus den Debian-Quellen nehmen, sondern muss mir die PUEL-Version entweder direkt bei Oracle runterladen oder deren Repo in meine Quellen aufnehmen. Und beides widerstrebt mir dann doch mehr als die Nachteile von VNC. Ich meine, das ist ein Server. Der soll einfach nur laufen. Da gehören weder Fremdquellen noch manuell installierte Programme drauf (eigene ausgenommen). Wenn es unbedingt sein muss, greif ich vielleicht allenfalls zu debian-multimedia, weil ich den Server auch für Audio- und Video-Bearbeitung vorgesehen habe (weil der das auch besser und klagloser kann als mein Laptop) und ja nicht jeder scheiß Codec oder Encoder in den offiziellen Quellen liegt.

Alles in allem: ich bin zufrieden! 😀

Veröffentlicht unter Allgemein, Linux, Netzwerk, Virtualisierung | Hinterlasse einen Kommentar

Der kontinuierliche Desktop

Gestern waren wir bei Oma. Jetzt hat sie ihren Laptop schon ein ganzes Jahr und ich wollte ihr immer was beibringen, habe angefangen, Screencast-Videos zu machen, die ihr zeigen, wie was geht, aber bin an dem Arbeitsaufwand einfach motivationsbedingt gescheitert.

Besucht haben wir sie im letzten Jahr viel zu wenig. Ein Grund, warum ich das mit den Videos angefangen habe.

Jetzt haben wir ihr zu Weihnachten nichts weiter als das Versprechen geschenkt, sie mindestens einmal wöchentlich zu besuchen und ihr bei der Gelegenheit auch ihren Rechner zu erklären.

Im Zuge dessen habe ich einige Überlegungen angestellt. Im Moment hat sie Linux Mint LTS mit GNOME 2. Ein Umstand, der zwei Probleme mit sich bringt. Zum einen gibt es GNOME 2 bald nicht mehr, was einen Umstieg erforderlich macht. Zum anderen bin ich wegen der schlechten Sicherheitspolitik bei Canonical davon weggekommen, Ubuntu und seine Derivate zu benutzen oder zu empfehlen.

Zuerst hatte ich nur Ubuntu aus meiner Empfehlungsliste endgültig gestrichen, als sie mit dem Unity-Quatsch anfingen. Dass ich das früher oder später tun würde, hatte sich aber auch davon schon immer mehr abgezeichnet, weil Mark Shuttleworth nun mal dazu neigt, plötzliche und unerwartete Entscheidungen zu treffen. Der Irrsinn mit den linken Fensterbuttons war ja angeblich eine Entscheidung des Design-Teams, der er sich selbst fügte und die ihm eigentlich nicht gefiel. Glauben wir ihm das einfach mal. Trotzdem ist es doch interessant, wie toll diese Anordnung den Workflow von Unity unterstützt. Und Unity als Standard-Desktop war definitiv Shuttleworth‘ alleinige Idee, nach eigener Aussage geboren in einem Anfall von Prast auf die GNOME-Entwickler. Angeblich wollte er sich ja sogar gänzlich von GNOME trennen. De facto basiert Unity auf GNOME. Dann las man (ob das von ihm kam, weiß ich nicht), dass Unity ja nur eine Zwischenlösung sei, weil GNOME 3 nicht pünktlich zum nächsten Release in benutzbarer Form vorliegen würde. Man wolle dann später auf GNOME 3 umsteigen. Warum dann nicht einfach weiter GNOME 2 nehmen, so wie sie es ja auch getan haben, als sie Unity drauf packten? Weil es kein neues GNOME-2-Release gab? Ist doch albern. Dann nimmt man eben dieselbe Version wie im vorherigen Ubuntu-Release. Also alles ein bisschen unsinnig. Wenn ich mich recht entsinne, wollte Shuttleworth auf gar keinen Fall etwas mit GNOME 3 zu tun haben. Und wie sieht es heute aus? Unity ist keinesfalls wie damals angekündigt eigenständig, sondern basiert aktuell auf GNOME 3. Da musste schon einiges angepasst werden, also einfach das bestehende, auf GNOME 2 basierende Unity auf GNOME 3 drauf zu klatschen, wird wohl kaum möglich gewesen sein. Unity war unter GNOME 2 nichts weiter als ein Compiz-Plugin. GNOME 3 ist mit Compiz inkompatibel. Das wird wohl einiges an Arbeit gewesen sein, Unity bereit für den neuen Unterbau zu machen. Ich tippe einfach mal ins Blaue, dass es nicht viel mehr Arbeit gewesen wäre, Unity unabhängig zu machen. Und wenn man sich vor Augen hält, dass Unity ja eigentlich langfristig eigenständig werden soll(te?) wegen unüberwindbaren Differenzen zwischen Shuttleworth und den GNOME-Entwicklern, scheint man sich da doch einiges an Mehrarbeit aufgebürdet zu haben. Soll man das mit der Eigenständigkeit unter diesen Umständen dann überhaupt noch glauben? Und was soll man Shuttleworth, bzw. Canonical überhaupt noch glauben? Oder hab ich was verpasst und Shuttleworth hat sich mit den GNOME-Entwcklern wieder versöhnt?

Na ja, alles ein bisschen undurchsichtig. Und das einzige, auf das man sich bei Ubuntu verlassen kann, ist, dass man sich ansonsten auf nichts verlassen kann.

Bei Ubuntuusers ist es geradezu verpöhnt, Linux Mint zu verwenden. Schreibt ein unbedachter User, dass er Mint verwendet, wird er sogleich von mehreren Mods überfallen, die, anstatt ihm bei seinem Problem zu helfen und einfach seine Fragen zu beantworten – was ohne Weiteres ginge, da Mint die Ubuntu-Quellen nutzt und somit nur ein angepasstes astreines Ubuntu und zu Ubuntu selbst vollständig kompatibel ist -, lieber seinen Thread ins Unterforum für andere Betriebssysteme schieben – während Fragen zu vollkommen anderen Distributionen im normalen Support-Bereich verbleiben dürfen – und den User mit Fragen und Aussagen bedrängen, warum er denn Mint benutzt und dass er ja auch direkt Ubuntu nehmen kann und ja sowieso alles nur eine Frage von apt-get install IRGENDWAS sei. Anstatt Hilfe zu bekommen, muss sich ein Mint-User bei Ubuntuusers oftmals nur (oder zumindest auch) für die Wahl seiner Distribution rechtfertigen. Und oft genug bleibt als Fazit, Mint sei anders, da könne oder wolle man nicht helfen und wer so stur ist und unbedingt Mint benutzen will, der soll sich gefälligst an die Mint-Community wenden. Ich wiederhole in diesem Zusammenhang nochmal: Bei Problemen mit anderen Distributionen wie Arch, Gentoo, Debian, etc. wird anstandslos geholfen – im normalen Ubuntu-Supportbereich. Da mault niemand, Arch sei ja anders und man solle seine Frage doch bitte ins Arch-Forum stellen. Und die Leute werden auch nicht zur Benutzung von Ubuntu genötigt. Sogar bei Windows-Problemen wird geholfen, meist ohne jeden Missionierungsversuch. Die bekommen Windows-Nutzer nur zu hören, wenn sie sich enttäuscht von Ubuntu anwenden.

Aber zurück zum Thema. Ich habe mich damals mal in eine dieser dubiosen Mint-Diskussions-Querelen reingehängt und Position für Mint ergriffen. Mein Argument war der Grund, weshalb ich den Leuten lieber Mint aufschwatze als Ubuntu. Und das war der Punkt Kontinuität. Die Mint-Community macht nämlich nicht allen Scheiß mit, der in Ubuntu landet. Es wurde sich klar geäußert, dass Mint nicht den Weg zu Unity mitgeht. Und auch, dass so lange auf den XServer gesetzt wird, bis sein Nachfolger, Wayland, ausgereift genug ist, ihn zu ersetzen. Shuttleworth dagegen hatte den Umstieg bereits zum nächsten Release angekündigt. Das ist jetzt über ein Jahr her und Ubuntu nutzt immer noch den XServer. War wohl doch alles noch nicht mal eben eingepflegt, wie Shuttleworth sich das vorgestellt hatte. Jedenfalls sind die Mint-Distributoren auch alles andere als begeistert von den fragwürdigen Entscheidungen und Überraschungen im Hause Canonical. Sie möchten Kontinuität erhalten, wo man mit Ubuntu schon wieder neue Wege geht. Dieses von mir eingebrachte Argument war das erste, das der größte Ubuntu-Faschist im Forum nicht entkräften konnte, wie er es ausdrückte. Schade, dass persönlicher Geschmack anderer Leute da einfach nicht zählt, aber anderes Thema.

Ende 2010 habe ich mich intensiv mit einsteigerfreundlichen Distributionen befasst. Derer gibt es ja viele. Bei den meisten fehlt es allerdings am deutschsprachigen Support, weshalb eigentlich nicht viel übrig blieb. openSUSE fand ich damals noch grauenhaft, bei Mandriva wusste man aus anderen Gründen als bei Ubuntu noch weniger, wo die Reise hin geht und Debian Stable ist naturbedingt weit vom Aktualität entfernt und genügte außerdem damals nicht meinen Ansprüchen in Sachen Einsteigerfreundlichkeit. Ich wollte ein System, das in derselben Weise einsteigerfreundlich war wie Ubuntu und außerdem einen großen deutschsprachigen Background hat. Letztlich blieb eigentlich nur Linux Mint mit Ubuntuusers als Anlaufstelle für Support.

So fiel insbesondere meine Wahl für Oma auch auf Linux Mint. Damals war natürlich schon abzusehen, dass Mint auf GNOME 3 umsteigen würde. Es war auch von einem Fallback-Modus die Rede, der so sein sollte wie GNOME 2. Das habe ich mal als Tatsache angenommen und mich somit darauf eingestellt, dass Oma nur einmal die Bedienung eines Desktops lernen muss, der sich vielleicht weiter entwickelt, aber nicht völlig verändert.

Aber erstens kommt es anders und zweitens als man denkt. GNOME 3 kam. Und der Fallback-Modus wollte so überhaupt nicht mehr an GNOME 2 erinnern. Wenn ich das gerade richtig im Kopf habe, wollen die GNOME-Entwickler den Standard-Desktop sogar auf nicht-3D-fähige Grafikkarten anpassen, sodass man es in Zukunft nur noch mit der GNOME-Shell zu tun hat. Also kurz vor Weihnachten wieder die grauen Zellen angestrengt und darüber nachgedacht, wie ich das Unheil eines neuen unbekannten Desktops von Oma abwenden könnte. Ich fragte mich schon, ob es nicht von Vorteil sei, dass Oma bisher so wenig mit ihrem GNOME 2 umgehen konnte und es kaum kannte. So hätte ich den Laptop einfach noch mal mitnehmen und etwas Anderes drauf installieren können. Eine andere Idee war (und ist noch immer), mal die Weiterentwicklung von Xfce abzuwarten, irgendwann darauf umzusteigen und zu hoffen, dass Oma jegliche Änderung an ihrer gewohnten Bedienung erspart bleibt.

Aber vielleicht hat sie ja auch genau die richtige Distribution auf dem Rechner, um möglichst umstandsfrei den Weg zu GNOME 3 beschreiten zu können. Mint setzt nämlich inzwischen auf MATE, einen Fork, der auf GNOME 3 basiert, aber wie GNOME 2 aussehen soll. Ich will die aktuelle Version 12 nun mal testen. Sie erhebt nicht den Anspruch, einwandfrei zu funktionieren und ist erst mal nur ein notdürftiges Experiment, wie es scheint, aber sie kann hoffentlich schon mal einen kleinen Einblick gewähren, was mit der nächsten Version, auch wieder LTS, zu erwarten ist.

Auf den ersten Blick wirkt MATE wie eine Mischung aus GNOME 2 und GNOME 3. Der Fallback-Modus ist nicht zu übersehen.

Ich will mal hoffen, dass, egal, was die GNOME-Entwickler machen, MATE immer am Nabel von GNOME 2 sein wird, bzw. sich zwischen einzelnen Umstiegen nicht viel Umgewöhnungsnotwendigkeit ergibt, Linux Mint 13 (die nächste LTS) einen problemlosen Umstieg von GNOME 2 ermöglicht und Version 17 (wohl die übernächste LTS) ebenso schmerzlos angegangen werden kann.

Version 9, die Oma auf ihrem Rechner hat, wird noch bis April 2013 mit Updates versorgt. Im April 2012 erscheint Version 13. Wir müssten also irgendwann im Laufe des Jahres, spätestens bis April 2013 das Upgrade auf Linux Mint 13 machen.

Veröffentlicht unter Allgemein, Desktop, Distributionen, Internet, Linux, The daily madness | Hinterlasse einen Kommentar

Server mounten unter GNOME 3: Die Lösung!

Ha ha! Scheiß auf Shell-Erweiterung! Scheiß auf GNOME 3 und seine Funktionalitätsbefreitheit! Scheiß auf den ganzen Mist! Ich hab DIE Lösung!

Meine ThinkVantage-Taste hat jetzt eine neue Funktion. Nachdem sie bis jetzt dazu auserkoren war, Linux Notes im Firefox zu öffnen, und dabei nie so richtig Verwendung gefunden hat, hat sie nun die ehrenvolle Aufgabe, die große Platte auf dem Server zu mounten, bzw. auch wieder auszuhängen.

Vielleicht lasse ich sie kombiniert mit einer anderen Taste noch das Homeverzeichnis mounten, mal sehen.

Und damit wäre nun auch das Problem gelöst, dass der Rechner sich nicht ausschaltet, wenn beim Shutdown noch Netzlaufwerke eingebunden sind. Es sollte ja machbar sein, vor dem Herunterfahren daran zu denken, sie eben schnell mal auszuhängen.

Wenn das fehlschlägt, etwa weil das Laufwerk gerade noch benutzt wird, gibt’s ne hübsche Fehlermeldung via zenity.

So lässt sich arbeiten! 😀

Hier das Script:

#!/bin/bash

[ "$1" ] && dev="$1" || dev="home"

mountpoint="/media/<SERVER-VERZEICHNIS>/.$dev"
cmd="mount"

[ "$(mount | grep "$mountpoint")" ] && cmd="u$cmd"

$cmd $mountpoint || zenity --error --text "$cmd konnte für $mountpoint ausgeführt werden."
Veröffentlicht unter Allgemein, Coding, Desktop, Hardware, Netzwerk | Hinterlasse einen Kommentar

Fünf Freunde – die Fernsehserien

Heute mal was gänzlich Untechnisches.

Mein Ableger fährt momentan total auf die Fünf Freunde ab. Hörspiele, Fernsehserien – wenn wir die Bücher hätten, müsste ich die wahrscheinlich auch noch vorlesen.

Im Allgemeinen ist man ja meist etwas nostalgisch verklärt, wenn es um Dinge geht, die man als Kind toll fand. Das wird bei mir in speziell diesem Fall nicht anders sein. Ungewöhnlich ist aber doch, dass mich in diesem Fall das bislang Fremde mehr überzeugt als das, mit dem ich aufgewachsen bin.

Es gibt zwei Fernsehserien über die Fünf Freunde. Eine ist aus den 70er Jahren, die andere aus den 90ern. Ich kannte bisher nur die zweite, weil die damals im KiKa lief. Ich hab sie geliebt.

Jetzt guckt sie mein Kind. Und außerdem habe ich hier jetzt auch noch die Serie aus den 70ern und sehe sie zum ersten Mal.

Und ich muss sagen, das ist ein Unterschied wie Tag und Nacht. Es ist schon an sich erschreckend, auf einmal festzustellen, wie primitiv, amateurhaft und in der Szenerie völlig abstrus und unrealistisch die 90er-Serie gemacht ist. Würde ich sie heute zum ersten Mal sehen, ich glaube, ich würde ganz schnell abschalten und nie wieder anmachen. Ich hab mir gedacht, so eine Einzelfolge dauert maximal 25 Minuten. Und es muss ja schon gewaltig abgespeckt werden, wenn drei ??? Bücher in 45-70 Minuten lange Hörspiele gequetscht werden. Also ist es nur logisch, dass 25 Minuten lange Fernseh-Folgen entsprechend noch magerer ausfallen.

Nun sehe ich aber die Folgen aus den 70ern und muss feststellen, dass das ein großer Trugschluss ist. Denn die sind doch um ein Vielfaches besser gemacht und der Plot ist weitaus nachvollziehbarer. Dagegen wirken die 90er-Folgen nun nur noch oberflächlich und lieblos.

Es gibt nur zwei Dinge, die ich der 90er-Serie gerade noch zu Gute halten kann. Zum einen nimmt man Onkel Quentin den „verrückten Professor“ besser ab. Allerdings ist er auch wiederum so stereotypisch dargestellt, dass es schon wieder ins primitive Bild der ganzen Serie passt. Das andere ist, dass die 90er-Serie in der Hinsicht authentischer, oder besser gesagt, originalgetreuer ist, dass sie ebenso wie ihre Buchvorlage in der Mitte des 20. Jahrhunderts spielt, während die 70er-Serie die Fünf Freunde in die 70er Jahre portiert hat. Allerdings kann einen das auch kaum tangieren, wenn man es völlig normal findet, dass die drei ??? seit den 60er Jahren bis heute immer in der gerade aktuellen Zeit leben.

Insgesamt muss ich sagen, dass die 90er-Serie schon wirklich schlecht sein muss und die 70er dagegen ziemlich gut ist. Wie sonst kann es sein, dass mir Letztere trotz aller Verklärung so viel besser gefällt, dass ich es für nahezu vollkommen sinnfrei halte, die 90er überhaupt noch zu gucken?

P.S.: Wenigstens hat die 90er-Serie ein paar gute und spannende Episoden. Und meine Lieblingsfolge „Fünf Freunde im alten Turm“, deren Fernsehadaption ich noch gar nicht kannte und vor ein paar Tagen zum ersten Mal gesehen habe, haben sie eigentlich ganz gut umgesetzt. Das ist schon mal eine schöne Erkenntnis. 🙂

Veröffentlicht unter Allgemein, Film und Fernsehen, The daily madness | Hinterlasse einen Kommentar

Keine Lust, alles doof :-?

Wie gestern im Update erwähnt, geht es schon mal ein bisschen voran. Wenn ich mich denn mal so halbwegs motivieren kann. Und wenn nicht, na ja, muss ja nicht alles perfekt sein, was funktioniert.

Aber irgendwie nervt mich das doch, noch Pläne zu haben, aber keine Lust, sie umzusetzen.

Ich hab es an meinem Laptop jetzt so gemacht, dass unter /media ein Verzeichnis und darin die Mountpoints für den Server als versteckte Verzeichnisse liegen. Dazu im selben Ordner sichtbare Symlinks darauf.

In /etc/fstab sind die Mountpoints als noauto eingetragen, sodass ich sie bei Bedarf mounten kann.

Versteckt hab ich sie, um sie nicht als im Nautilus unter „Geräte“ stehen zu haben, weil

  • sie mich nerven,
  • sie manchmal nicht richtig funktionieren und nur Scheiße angezeigt wird oder Fehlermeldungen kommen und
  • ich nicht die ganzen fremden Benutzerverzeichnisse angezeigt kriegen will, auf die ich eh keinen Zugriff hab, was aber erscheint, wenn ich auf den Mountpoint-Eintrag klicke.

Also versteckte Verzeichnisse und Nautilus listet sie gar nicht mehr auf.

Stattdessen hab ich ein Lesezeichen gemacht, das mich direkt in mein Verzeichnis führt. Und in diesem Verzeichnis liegt ein Symlink zum gemeinsamen Verzeichnis.

Das Lesezeichen erscheint nur, wenn das Ding gemountet ist. Leider tut sich Nautilus damit schwer, das vernünftig zu aktualisieren. Aber gut, sehen wir mal, wie sehr mich das auf Dauer nervt…

In den Mountpoint-Verzeichnissen liegt jeweils ein Script, das ich nur noch anklicken muss, um den jeweiligen Share zu mounten. Aber erst mal dahin tigern, um da drauf zu klicken… Ja, ich weiß, ließe sich alles anders lösen, bla bla, aber ich will die Scripte genau da haben. Ansonsten ist ja der Terminal-Befehl sowieso nicht weit, von daher liegen sie da schon richtig, weil sie so niemanden stören. Das einzige, was da noch fehlt, wäre das entsprechende umount-Pendant, aber da weiß ich noch nicht, wo ich das parken könnte, um es genauso wenig stören zu lassen.

Nun möchte ich gerne ein Menü in der GNOME Shell haben, wo ich nur noch klicken muss, um das entsprechende Script auszuführen – oder halt einfach zu mounten oder zu umounten. Dafür brauch ich eine Extension.

Ich weiß nicht, ob es an meiner gähnenden Unlust liegt oder woran auch immer, jedenfalls will mir einfach nicht einleuchten, wie ich aus einer Extension heraus Befehle ausführe. Abgesehen davon, dass der Code sowieso grad mal so gar nicht an mich ran will. Ja, es wird sicherlich an meiner Einstellung liegen: „Ich kann das nicht! Ich will das nicht! Alles ist doof!“

Meine Güte, wenn man sich überlegt, dass mit Sicherheit mindestens 70 % der Linux-Nutzer keine Programmierer sind, viele auch weder Zeit noch Lust haben, andauernd an ihrem System rumzubasteln und einfach nur einen Rechner da stehen haben wollen, der funktioniert und den sie benutzen können…

Von den Nerds hört man nur: „Du musst dich informieren! Du musst Zeit investieren! Du musst wollen! Du musst denken! Du musst…..“

Sätze, die ich bis vor gar nicht allzu langer Zeit auch zu gerne von mir gegeben hab. Nur weil es für mich normal war. Nur weil ich die Auffassung vertreten hab, wer einen Rechner haben will, der sollte in seinem eigenen Interesse vielleicht wissen, was er da eigentlich hat. Diese Auffassung vertrete ich immer noch. Aber erst jetzt fällt mir auf, was das unter Linux eigentlich bedeutet. Das impliziert ein Leben, wie es bisher für mich normal war. Viel Zeit am Rechner, viel Beschäftigung mit allerhand Materie, viel, was dabei auf der Strecke bleibt. Ich für meinen Teil kann es mir nur erlauben, mich wenig um meinen Rechner zu kümmern, ohne dass dabei sinngemäß die Welt untergeht, weil ich vorher viel investiert hab, jetzt viel weiß und somit meine Probleme schneller, gezielter und individueller lösen kann.

Es ist einfach nicht wahr, dass Linux was für alle und jeden ist. Es ist tatsächlich was für Bastler oder für solche, die einen Bastler im Rücken haben. Auch wenn die Linux-Gemeinde das gerne ausblendet, für alle Anderen erfüllen Windows und Mac OS ihren Zweck. Da haben sie einen Konzern im Rücken, der ihnen alles schon passend macht.

Und um ehrlich zu sein, wäre ich berufstätig gewesen als ich mit Linux angefangen habe, wäre es eine Zeit lang ganz amüsant gewesen. Aber als dann die ersten Probleme anfingen oder die ersten Basteleien erforderlich waren, etc. hätte mir einfach die Zeit und der Kopf dafür gefehlt.

Ok, vielleicht hätte ich das eine oder andere mit fremder Hilfe (z.B. Forum) geschafft. Ja, mit fremder Hilfe. Und nur mit fremder Hilfe. Aber ich wäre bestimmt niemals auf den Stand gekommen, dass ich mir eigentlich immer selbst (und mit Google) helfen kann, so wie es heute der Fall ist.

Veröffentlicht unter Allgemein, Linux, The daily madness | Hinterlasse einen Kommentar

Gates‘ Vision: Windows auf jedem PC

Die Tage des BIOS sind gezählt. Na ja, noch nicht ganz.

Ich kenne die genauen Zahlen nicht, aber es scheint so zu sein, dass (U)EFI auf dem Vormarsch ist.

Es kann mehr als das BIOS, ist schneller, 64-Bit-fähig, sicherer, etc.

Wenn das BIOS ein Trabi ist, ist EFI gewissermaßen der Ferrari. Beide haben die Aufgabe, einen von A nach B zu bringen, beide haben 4 Räder und weitere Ähnlichkeiten, aber im Grunde ist es schon kaum fassbar, dass sie beide unter die Bezeichnung „Auto“ fallen. Und vor allem: Der Trabi ist kein Ferrari und der Ferrari ist kein Trabi, auch keine Weiterentwicklung oder dergleichen.

Etwa so verhält es sich zwischen BIOS und seinem Nachfolger auf dem Mainboard.

Und so wie ein Ferrari nicht nur ein Fortbewegungsmittel, sondern auch Statussymbol, Sportwagen und was weiß ich nicht noch alles ist, übernimmt das EFI zwar die Aufgaben des BIOS, ist aber eigentlich viel mehr als das und die BIOS-Aufgaben sind nur noch eine Komponente.

Nun hab ich zwar einem aktuellen Ferrari noch nie unter die Motorhaube geguckt, aber zumindest von seinem kleinen Bruder, dem Fiat, kann ich sagen, dass man da – wie wohl bei den meisten aktuellen Autos heutzutage – an nichts mehr ran kommt. Alles ist komplett vernagelt. Man kann gerade mal Öl und Wasser einfüllen. Ansonsten sitzt alles unter einer Abdeckung, die mit ungewöhnlichen Schrauben befestigt ist, für die man keinen Schlüssel bekommt. Man kann nicht mal überbrücken oder eine Birne wechseln, ohne dass gleich das halbe Auto zerlegt werden muss. Von der ganzen Elektronik will ich ja schon gar nicht erst anfangen. Kurz um, ein modernes Auto steht wegen jedem kleinen quersitzenden Pups immer gleich in der Werkstatt, weil der Endanwender keine Kontrolle mehr über seine Hardware hat. Über einen Trabi war man immer noch selbst der Herr.

Wo ist da jetzt der Bezug zu BIOS und EFI? Ganz einfach, EFI ist DRM-fähig. Auch hier wird dem Endanwender wieder die Möglichkeit genommen, sein Eigentum zu kontrollieren. Es untersteht völlig der Kontrolle Anderer.

Wurden in den letzten Jahren noch Befürchtungen laut, Hersteller könnten unbemerkt Überwachungsmechanismen einbauen, so konzentriert sich die Problematik aktuell eher darauf, was dem Endanwender überhaupt noch erlaubt wird. Wie ein DRM-verseuchter -geschützter Film, den man nur auf registrierten Geräten gucken darf oder ein Audio-File aus dem iTunes-Store (wo das zumindest früher mal so war), können EFIs so konfiguriert werden, dass sie nur erlauben, was der Hersteller vorgegeben hat.

So erpresst nun Microsoft die Hersteller stellt Microsoft den Hersteller die Bedingung, dass sie eine Windows-8-Zertifizierung nur ausstellen, bzw. die Vorinstallation von Windows 8 auf Fertig-Computer nur erlauben, wenn das eingebaute EFI keine anderen Betriebssysteme duldet.

Ein paar interessante Artikel dazu:
Windows 8 könnte Linux-Installationen verhindern
Sorge berechtigt! Microsoft hat zum Thema “Windows 8 und Secure Boot” geantwortet
Befürchtungen wegen UEFI absolut gerechtfertigt: Microsoft sperrt ARM-Anwender und -Hersteller ein

Dort wird ja einiges schon angesprochen. Ein wichtiger Punkt ist die Unmöglichkeit, einen alten Computer später mit einem sparsamen Betriebssystem oder als NAS zu „recyclen“.

Und wenn man sich damit trösten will, dass man ja auch einfach nur das Mainboard austauschen muss, stellt sich aber immer noch die Frage, was es bis dahin überhaupt noch gibt.

Ob das wohl möglich ist, solche Rechner als Terminal-Clients zu verwenden? Dann wäre es immer noch Prozessor-Verschwendung. Aber vielleicht geht das ja sowieso nicht. Ich kenne mich mit EFI und seinen Eigenheiten nicht aus.

Andere Frage. Wenn Microsoft auf Win8-Beschränkung besteht, um einen Rechner mit Win8 auszuliefern, heißt das dann, dass solche Rechner auch durch die Bank kein BIOS mehr haben dürfen? Oder macht Microsoft dafür keine Vorgabe?

Wenn BIOS tabu ist, wird BIOS in allernächster Zukunft sterben. Davor, dass es irgendwann so kommen wird, graut mir ja sowieso schon. Ich will diesen EFI-Scheiß nicht! Ich habe auch noch nie den Eindruck gehabt, dass das BIOS nicht mehr reicht. Ok, ich als Endanwender habe da natürlich andere Ansichten als Hersteller, die sich durch das BIOS beschränkt fühlen, aber muss man es deswegen gleich mit einer Technologie ersetzen, die die Anwender kontrolliert?

Im Moment dreht sich das alles ja nur um Fertig-PCs (und „Kleingeräte“), wenn ich das richtig verstehe. Also ist man nicht betroffen, wenn man sich seinen Rechner selber baut. Noch nicht. Denn wie lange dauert es, bis diese Beschränkungen überall gelten?

Muss man sich dann einen Mac kaufen, um Linux noch zu installieren? Oder springt Apple dann gleich mit auf den Zug auf? (In Macs werden übrigens schon seit Jahren nur noch EFIs verbaut.)

Und wie teuer wird es in 5 bis 10 Jahren sein, noch ein Mainboard zu kaufen, das einem noch die freie Wahl des Betriebssystems lässt? Und wie sieht es eigentlich mit sonstiger Hardware aus? Muss man dann sehen, was man sich überhaupt noch aufs Board stecken kann, ohne was zu erwischen, was per EFI mal wieder nicht erlaubt ist?

Wo ist eigentlich Richard Stallman in dieser Debatte? Der hat doch immer was zu meckern, sich überall einzumischen und sich aufzuführen wie der letzte Elefant. Wäre das nicht auch ein Thema für ihn?

Ok, den Absatz sollte ich vielleicht erklären. Ich mag Stallman überhaupt nicht. Er ist mir einfach zu laut, teilweise einfach nur albern und sein Freiheitsgeschrei hat in meinen Augen nichts mehr mit Freiheit zu tun, sondern eher mit Sektiererei. Seine Forderungen schaffen konsequent umgesetzt nur Unfreiheit, solange sich nicht alle dran halten. Aber wie frei ist das, sich an etwas halten zu müssen, damit alle frei sind? Ok, alles ein wenig paradox. Seine heilige Bibel GPL ist inkompatibel hoch 10 und seine getreuen Jünger sind ständig bestrebt, die Selbstgeißelung für sich zu perfektionieren.

Aber solche Menschen wie Stallman brauchen wir! Braucht die Welt! Nur durch Leute wie Stallman ist freie Software überhaupt populär. Oder überhaupt vorhanden, zugänglich. Stallman und die FSF stellen ein Gegengewicht zu denen her, die alles daran setzen, den Nutzern ihrer Produkte jegliche Selbstbestimmung zu entziehen, die Eigentum auf ein von ihnen definiertes Nutzungsrecht reduzieren, die versuchen, ihre Kunden so weit als möglich von ihnen abhängig zu machen und in Sokrates‘ Höhle zu sperren, ohne ihnen jemals auch nur den Gedanken zu erlauben, dass es da draußen etwas geben könnte, das sich Tageslicht nennt.

Nur durch Leute wie Stallman können die nicht alles machen, was sie wollen.

Wir brauchen Stallman! Er mag einen irreversiblen Totalknall haben und einen immer wieder die Hände über dem Kopf zusammenschlagen lassen, aber genau das ist es wahrscheinlich, was uns wenigstens noch ein bisschen Hoffnung behalten lässt.

Update (Do, 01/19 07:33): Konsequenzen für Sicherheit und andere Probleme: Red Hats Matthew Garret: Warum UEFI problematisch für Linux ist

Veröffentlicht unter Allgemein, Hardware, Politik, Windows | Hinterlasse einen Kommentar

Das ewige Leid mit der Desktopumgebung

Seit kurzem nutze ich wieder GNOME 3. War eigentlich nur ein Spontanbesuch, weil Xfce leider nicht so recht mit dem zweiten Monitor wollte. Und irgendwie wollte mir Xfce auch einfach nicht wirklich gefallen. Es zwar zwar fast alles an seinem alten Platz, aber trotzdem war es nicht mehr wirklich dasselbe. Die Kleinigkeiten waren der Tropfen, der ständig von der Decke fiel. Und die schlechte Integration von GNOME-Komponenten, die mit GNOME 2 wohl noch deutlich besser war, nicht nur was die Optik betrifft, sondern auch die Funktionalität.

Und jetzt versuche ich gerade das Beste aus GNOME 3 zu machen. Das heißt, ich habe mich mal nach Erweiterungen umgesehen. Leider gibt es da nicht wirklich was in den Paketquellen. Und das Extensions-Repo ist total zugekleistert mit allem möglichen Zeug, vollkommen unsortiert. Da findet man ja nix. Außerdem sind meine Vorstellungen mit Sicherheit sowieso mal wieder viel zu speziell.

Zum Beispiel möchte ich Befehle bereit stellen, mit denen man per Mausklick die noauto-Einträge aus der /etc/fstab mounten kann, also speziell sind das die Sachen vom Server. Und ich brauche so ein paar andere Sachen, die mir schmerzlich fehlen wie Sensorendaten & Co.

Ich bin auch nicht wirklich angetan davon, dass man sich bei den Extensions eigenhändig um Updates bemühen muss.

Also muss man sich da wohl mal wieder selbst ans Werk machen.

Ist ja schön, dass man sich so eine Extension mal eben mit ein bisschen Javascript dahin schmieren kann. Ist auch schön, dass die GNOME-Shell schon Komponenten mitbringt, die bei der Umsetzung helfen sollen. Allerdings beschleicht mich der Eindruck, dass die Tools keinesfalls der Unterstützung von Leuten dienen, die sich ihr Zeug selber schreiben wollen. Es wirkt eher so, als sollte damit dafür gesorgt werden, dass alle Leute schön normgerecht arbeiten. Ok, kann ich mit leben. Hilft mir ja auch. Und das Einhalten von Normen ist ja prinzipiell nicht so verkehrt. Ich freu mich auch, wenn sich ein anderer Coder an gewisse Standards hält, die mir das Lesen erleichtern, und ich mich nicht erst in irgendein wirres Gewusel reinarbeiten muss. Abgesehen davon krieg ich als Anfänger ja auch gleich einen gewissen Einstieg mit auf den Weg. Also alles gar nicht so blöd gemacht.

Aber was soll der Scheiß eigentlich?

Ich meine, es ist eigentlich klar. Die GNOME-Entwickler wollen ihre Userschaft zur Eigenleistung heranziehen. Die machen alles möglichst abgespeckt und kaum zu gebrauchen und alles, was GNOME zum Funktionieren bringt, kann gefälligst die Community übernehmen. Ich meine, dann sollten sie wenigstens konsequenterweise mal ein aufgeräumtes und übersichtliches Repo anbieten und nicht so eine unsortiert dahingeklatschte alphabetische Liste, die man als User erst mal mühsam durchsuchen darf.

Was soll der Scheiß?

Wen wollen die eigentlich damit erreichen?

Muss jetzt jeder Ottonormaluser zum Programmierer werden, um eine einstmals anfängerfreundliche und in aller Dezentheit Eigeninitiative fördernde und damit einen schleichenden Lernprozess anstoßende Desktopumgebung nutzen zu können?

Ich glaube, ich hatte mich damals schon mal darüber ausgelassen, dass man bei GNOME 3 entweder auf ewig dumm bleibt oder gleich zum Nerd werden muss. Und ich sehe mich gerade doch sehr bestätigt.

Was aber, wenn man einfach überhaupt keine Lust hat, seinen Desktop erst zu programmieren, bevor man ihn vernünftig benutzen kann?

Und das ist bei mir der Fall. Ich habe keine Lust, mich mit Extension-Programmierung auseinanderzusetzen. Ja, wer hätte das gedacht, dass ich mal sowas sage?! Aber es ist so. Ich kann meine Zeit wirklich sinnvoller nutzen!

Das Gebastel am Server macht wenigstens noch einigermaßen Spaß. Und ich weiß, dass es was bringt. Gut, das würde die eine oder andere Extension sicherlich auch, sonst würde ich sie ja nicht haben wollen. Aber Moment! Will ich wirklich Extensions haben? Nein! Ich will, dass GNOME selbst wieder seine alte Funktionalität mitbringt und nicht alles von irgendwelche ominösen Extensions abhängt. Das ist mir hier echt alles zu statisch und zu zersplittert.

Und ich komme mehr und mehr dahin, mich gänzlich vom Thema Desktopumgebung zu verabschieden. Wofür brauch ich den Scheiß? Erst recht jetzt, wo ich auch noch den Midnight Commander entdeckt habe? Ach ja, FF läuft leider nicht auf der Konsole.

Leider? Langsam aber sicher hängt der mir auch nur noch zum Hals raus. Ich kann nicht sagen, warum. Er nervt mich einfach nur. Wahrscheinlich v.a. deshalb, weil er so ein elender Ressourcenfresser ist. Ich hasse Ressourcenfresser!

Aber mit Textbrowsern hat man leider trotzdem das Problem, dass sie einfach nicht für moderne Webseiten geeignet sind. Und eine wirkliche grafische Alternative zum FF ist mir auch noch nicht über den Weg gelaufen.

Ansonsten fehlt mir auf der Konsole eigentlich nichts. Ist alles da:

  • tmux als Fenstermanager-Ersatz.
  • zsh mit vielen Features, von denen die bash nicht mal träumt. Die Bedienung ist derart komfortabel, dass es schon wirklich schwierig ist, noch ohne auszukommen. Oder ohne meine Konfiguration. zsh macht schon echt faul und blöd. 😀
  • Midnight Commander als Dateimanager.
  • Auf die Maus muss man keinesfalls verzichten. Bei mir läuft schon lange gpm, um mich auch durchs virtuelle Terminal klicken zu können. Der entscheidende Vorteil an der Mausbenutzung liegt v.a. in der Zwischenablage (Markieren und mit Mittelklick einfügen).
  • mutt als Email-Client.
  • Filme lassen sich einfach mit mplayer im Framebuffer gucken. Das ist allerdings schon ziemlich ressourcenlastig. Da ist mir Totem dann doch noch am liebsten, auch was die Bedienung betrifft. Da ergibt sich außerdem noch das Problem, dass ich Filme gerne auf einen zweiten Monitor werfe und auf dem Laptop noch was Anderes mache. Keine Ahnung, ob solche Aktionen auch ohne grafische Oberfläche möglich sind.
  • Musik hören geht logischerweise auch mit allen möglichen Tools.
  • Texteditoren gibt es genug. nano, vim und emacs sind da nur ein paar Möglichkeiten, wobei ich diese drei je nach dem, was man machen will, für am geeignetsten halte.

Fehlt noch was? Keine Ahnung. Viel mehr mach ich eigentlich nicht, jedenfalls nicht regelmäßig. Und was spricht dagegen, für den Bedarf noch eine grafische Oberfläche vorzuhalten?

Aber gut, da wäre der Browser, der einfach nicht ersetzbar ist. Und wie gesagt, beim Thema Filme wäre der Verzicht auf eine grafische Oberfläche wirklich ein Downgrade.

Wenn es sich anbietet, häng ich eigentlich immer öfter im virtuellen Terminal rum. Im einen auf dem Server eingeloggt, im anderen lokal. Und dann frustriert mich der Ressourcenverbrauch, den die grafische Oberfläche nebenan noch aufweist, nur weil ich ab und an mal rüber springe. Und das ewige Strg+Alt+Fx nervt auch. Aber so langsam steckt das immer mehr drin. Virtuellen Desktop wechseln? Normalerweise macht man das mit Strg+Alt+Rauf- und Runter-Tasten. Ich erwische ständig die F-Tasten.

Hach, das ist schon alles echt frustrierend. Vielleicht sollte ich einfach mal wieder Windows nehmen. Die Oberfläche gefällt mir zwar auch nicht, aber man hat wenigstens keine Wahl und kommt auch nicht mal auf den Gedanken, sich ins Terminal zu verirren, weil man von allem Anderen so gefrustet ist, dass man es einfach nicht mehr sehen will.

Veröffentlicht unter Allgemein, Desktop | Hinterlasse einen Kommentar