PRISM oder warum wir wieder dezentrale Strukturen im Internet brauchen

Seit dem der Skandal um PRISM hochgekocht ist, wissen es nicht nur Leute, die man sonst als Verschwörungstheoretiker bezeichnen würde: Die NSA (oder besser: die US-Geheimdienste im Allgemeinen) können auf so ziemlich jede digital kommunizierte Information zugreifen, wenn sie es denn wollen. Das gilt insbesondere wenn die Informationen bei einem US-Unternehmen wie Google oder Facebook gespeichert sind.

Den Unternehmen dafür die Schuld zu geben wäre jedoch falsch. Schließlich führt die Weitergabe bei Bekanntwerden zu einem PR-Debakel und kostet sonst auch nur Geld. Aus diesen Gründen werden die meisten Unternehmen die Daten ihrer User nicht freiwillig an staatliche Stellen aushändigen wollen, doch die Gesetzeslage zwingt sie dazu. Das ist hier in Deutschland auch nicht anders. So müssen zum Beispiel Email-Anbieter mit mehr als 10 000 Kunden dem Staat eine Abhörschnittstelle anbieten. Wer also GMX statt Google-Mail benutzt kann genauso durchsucht und abgehört werden.

Mir war schon immer Unwohl dabei, so persönliche Informationen wie Mails oder meine Terminplanung in die Hände von Unternehmen zu geben, insbesondere wenn sie kein Geld von mir wollen. Das deutet schließlich darauf hin, dass sie sich ihre Kosten, die das Bereithalten meiner Daten verursacht, von anderen Leuten bezahlen lassen müssen, die vielleicht ganz andere Interessen an meinen Mails haben.

Deshalb bin ich schon 2006 dazu übergegangen, so viel wie möglich selbst zu hosten. Ich habe mir bei Host Europe für damals noch 10€ im Monat einen virtuellen Linux-Server bestellt und angefangen, meinen eigenen Mail und Webserver aufzusetzen. Mails kann ich entweder direkt per IMAP auf dem Smartphone oder per Webmail-Interface von jedem Computer ohne Einrichtungsaufwand abrufen. Über das Webmail-Interface kann ich auch meine Termine verwalten und mit meinen Android-Geräten synchronisieren.

In jedem Fall ist die Verbindung per TLS verschlüsselt. Wenn ich Mails mit anderen Nutzern meines Mailservers (zum Beispiel mit meiner Freundin) austausche, wird diese Mail niemals unverschlüsselt übertragen und kann deshalb auch nicht so einfach abgehört werden. Gleiches gilt für meinen Kalender.

Insgesamt spüre ich keine großen Komforteinbußen durch die Verwendung meiner selbst-gehosteten Dienste im Vergleich zur Nutzung von Diensten von Google, GMX und Co. Aber ist das eine Lösung für jedermann? Natürlich kann oder will nicht jeder den Aufwand investieren, einen eigenen Mail-Server einzurichten und auf dem neuesten Stand zu halten, aber vielleicht wären sie bereit einen Euro pro Monat einem befreundeten oder bekanntem Nerd zukommen zu lassen, damit er ihnen Zugang zu den von ihm gehosteten Diensten gewährt und sich dafür seinen Server refinanzieren kann.

Natürlich könnte man daraus ein Geschäftsmodell machen, wie “Ich zahle Betrag X im Monat, damit ich werbefrei eure Dienste nutzen kann und ihre meine Daten nicht weitergebt”. Die gute Nachricht: solche Angebote gibt es schon. Die schlechte Nachricht: sobald diese Anbieter mehr als 10 000 Kunden haben, werden sie durch unsere Gesetze schon wieder gezwungen, dem Staat eine Abhörschnittstelle anzubieten.

Eine Lösung wäre hier vielleicht das Gründen von Non-Profit-Organisationen, beispielsweise Vereinen. Diese bieten ihren Mitgliedern für einen Mitgliedsbeitrag an, die von ihnen bereitgestellten Dienste zu Nutzen und geben im Zweifelsfall auch Support. Nähert sich ein Verein der Grenze von 10 000 Mitgliedern wird der nächste Verein gegründet. Pro Verein würden wahrscheinlich zwei bis drei Nerds ausreichen, die sich, durchaus auch mit Aufwandsentschädigung, um den reibungslosen Betrieb der Server kümmern.

Eine ganze Reihe von Diensten könnte man auf die Weise dezentral anbieten: Mail, Adressbuch und Kalender, die derzeit vielleicht bei Google und GMX gespeichert sind, könnte man beispielsweise mit Hilfe von Horde Groupware anbieten. Dateisynchronisation und -austausch, wofür man bisher Dropbox benutzt hat, könnte man über eine eigene OwnCloud zur Verfügung stellen. Für Instant Messaging wie es ICQ, MSN oder WhatsApp anbieten, könnte man Jabber verwenden.

Nur bei sozialen Netzwerken wird die Sache kritisch. Auf der einen Seite gibt es dort eine ganz natürliche Zentralisierungsbewegung. Schließlich möchte eigentlich niemand seine Kontakte in fünf verschiedenen Netzwerken pflegen. Auf der anderen Seite wecken die riesigen, zentral gespeicherten Datenbestände auch Begehrlichkeiten der Überwacher. Diaspora verfolgt dort einen interessanten Ansatz, aber leider verläuft das Projekt im Moment wohl im Sande.

Debian aus laufendem Linux heraus installieren

Heute habe ich mir vorgenommen parallel zu meinem laufendem Arch Linux ein Debian-System aufzusetzen. Da ich mir zu langes Herumgefrickel auf einem System ohne Desktop sparen wollte, sollte es nicht komfortable menügetriebene Standardinstallation von Debian werden. Ziel war auch gleich die fstab und die Benutzerkonten des laufenden Systems übernehmen zu können.

Prinzipiell gibt es für dieses Thema schon eine offizielle Anleitung, aber ich will hier trotzdem mal meine Schritte festhalten.

Vorbereitungen

Zuerst gilt es für Debian eine Root-Partition vorzubereiten. Ich verwende LVM also ist das recht unkompliziert. Zuerst zwacke ich von meiner Volume Group hdd-neu 50 GB für ein neues Volume namens “debian” ab (man gönnt sich ja sonst nichts).

lvcreate -L 50G -n debian hdd-neu

Dann erzeuge ich auf der neuen Partition ein ext3 Dateisystem

mke2fs -j /dev/hdd-neu/debain

Anschließend mounte ich die neue Partition nach /mnt/debinst

cd /mnt
mkdir debinst
mount /dev/hdd-neu/debain debinst

Als nächstes muss man sich irgendwo her das Debian-Installationstool namens debootstrap besorgen. Für Arch-Nutzer gibt es dazu ein Package in den AUR.

Installation von Debian

Wenn man debootstrap erfolgreich installiert hat kann man mit der Installation des Debian-Basissystems beginnen.

debootstrap --arch amd64 squeeze /mnt/debinst http://ftp.hosteurope.de/mirror/ftp.debian.org/debian/

Kopieren der Konfigurationsdateien

Nun kann man die fstab des laufenden Systems kopieren und Anpassungen vornehmen wie die den Mountpunkt von / zu ändern.

cp /etc/fstab /mnt/debinst/etc/fstab

Jetzt kann man auch die Login-Daten kopieren. Man sollte vorher aber vielleicht noch eine Sicherungskopie der Original Debian Gruppen- und Nutzerdaten anfertigen.

cp /etc/passwd /etc/shadow /etc/group /mnt/debinst/etc/

Es ist natürlich nützlich auf dem neuen System Netzwerkzugriff zu haben. Da ich mir nicht sicher bin welcher meiner beiden Netzwerkkarten welcher Nummer zugeordnet wird habe ich einfach mal meine beide für DHCP konfiguriert. So sieht meine /mnt/debinst/etc/network/interfaces dann aus:

# Used by ifup(8) and ifdown(8). See the interfaces(5) manpage or
# /usr/share/doc/ifupdown/examples for more information.

#To use dhcp:
#
auto eth0
iface eth0 inet dhcp

auto eth1
iface eth1 inet dhcp

Damit man auch weiß auf welchem System man arbeitet lohnt es sich im neuen System einen entsprechenden Hostnamen zu setzen.

echo DebianHostName > /mnt/debinst/etc/hostname

Es ist sicherlich sinnvoll für Security-Updates folgende zwei Zeilen in der /mnt/debinst/etc/apt/sources.list hinzuzufügen

deb http://security.debian.org/ squeeze/updates main
deb-src http://security.debian.org/ squeeze/updates main

Installation von Anwendungen

Jetzt ist es an der Zeit einen chroot in das neue Debian-System durchzuführen.

LANG=C chroot /mnt/debinst /bin/bash
export TERM=xterm-color

Um später auf der Konsole des neuen System nicht mit einer kryptischen Tastenbelegung hantieren zu müssen lohnt es sich noch locales und console-data zu installieren.

aptitude install locales
dpkg-reconfigure locales
aptitude install console-data
dpkg-reconfigure console-data

Es wird Zeit auf dem neuen System einen Kernel zu installieren. Ich habe mich für den einfachen amd64-Kernel entschieden.

apt-get install linux-image-amd64

Jetzt wäre ich eigentlich fertig. Aber ich hätte gerne noch einen laufenden Desktop, z.B. Xfce wenn ich das neue System starte:

aptitude install xfce4 xfce4-goodies

Und dazu kommt noch GDM als Display Manager

aptitude install gdm

Damit GDM auch gleich startet sollte man in /etc/inittab noch das default runlevel auf 5 setzen.

Debian-Root im LVM

Mein Debian-Root liegt ein einem Logical Volume weswegen eine zusätzliches Skript beim booten mit ausgeführt werden muss. Dazu muss auch eine neue Ramdisk erstellt werden.

cp /usr/share/initramfs-tools/scripts/local-top/lvm2 /etc/initramfs-tools/scripts/local-top/
dpkg-reconfigure linux-image-2.6.32-5-amd64

Vorbereitungen für den ersten Start von Debian

Es ist an der Zeit, sich aus dem Debain-chroot zu verabschieden und in das zur Zeit laufende Linux-System zurück zu kehren. Dann musste ich noch die für den Bootvorgang benötigten Dateien aus dem /boot-Verzeichnis des Debian-chroots in mein echtes /boot-Verzeichnis kopieren. Vorher unbedingt auf Namenskonflikte prüfen!

cp /mnt/debinst/boot/* /boot

Zum Schluss muss ich Grub noch zeigen, wo er Debian findet. Dazu lege ich zunächst der Übersicht halber zwei symbolische Verknüpfungen in /boot an.

ln -s vmlinuz-2.6.32-5-amd64 vmlinuz-debian
ln -s initrd.img-2.6.32-5-amd64 initrd-debian

Danach füge ich die folgenden Zeilen in meine /boot/grub/menu.lst ein.

title Debian
root (hd0,5)
kernel /vmlinuz-debian root=/dev/mapper/hdd--neu-debian ro nomodeset
initrd /initrd-debian

Jetzt noch den neuen Bootloader schreiben und fertig ist die Sache.

grub-install /dev/sda

Bei einem Neustart des Rechners sollte man jetzt erfolgreich das neue Debian booten können.

MATLAB goes Cloud Computing

This article will some guideline on how to do MATLAB-based number crunching on Amazon’s Elastic Cloud Computing service (EC2). However, this is not a detailed HOWTO. I just want to point you to the right direction.

Reasoning
While working on my diploma thesis I had to simulate a huge number of independent random experiments to acquire a database for a solid statistical analysis of the results of those experiments.

Instead of running n experiments in a single process I was able modify my simulation to run in two independent processes each with n/2 experiments. Due to the large number of experiments and the independence of each experiment, my problem was almost arbitrary scaleable – and therefore perfect for cloud computing.

Requirements
Of course you need MATLAB but also the MATLAB compiler which is a separate product. I’m assuming that you have access to a cloud computing service that offers you a linux-based machine. I used EC2 with a basic Debian installation. It can’t hurt to have a local (virtual) machine with the same OS as the target machine to do some local testing.

As far as I can tell, MATLAB’s GUI does not support cross-compiling so you might need to run MATLAB on the same architecture (x86 or amd64) and roughly the same OS (Windows or Linux) as your target machine. I did all of this on an 64 bit Arch Linux.

General idea
We will use the MATLAB compiler to transform your MATLAB code into C and then compile an executable binary for your target system (most likely a 64 bit Linux). Then we will transfer the binary with a runtime environment to the cloud and run multiple instances of it to do the number crunching.

Preparing the MATLAB code
First, you have to create a main function file, for example main.m. The function implemented in this file can take arguments form the command line which is handy because you might want to do the same calculation with different parameters in parallel or at least want the processes to save their results in different files.

All command line arguments passed to the main function are passed as strings so you might need to do some type converting to get their correct representation. A simple main.m might look like this:

function main(x, datapath)
    result = sqrt( str2double(x) );
    eval(["save " datapath "result"]);
end

This calculates the square root of the first parameter x and saves the result in a file specified by the second parameter datapath.

Generating the binary package
Now it’s time to compile the executable binary file. Open the compiler GUI by typing “deploytool” into the MATLAB command line. Create a new standalone application project and save it. I named my example project SquareRoot.prj. Then add main.m in the “Main function” subfolder. Other files used by your script should be added to the “Other files” subfolder.

You can now try to build the binary file. If no errors occur then you’re fine. If you run into errors, don’t panic. I had problems during linking because my MATLAB distribution shipped its own 64 bit libraries but not its own gcc. Because I have a recent linux distribution and a relatively old MATLAB build, my local gcc was on a newer version than the corresponding libc shipped with MATLAB. However, thanks to my Linux distribution I was able to install a matching version of the gcc. I then edited the CC environmental variable in the glnxa64 section of ~/.matlab/<MATLAB version>/mbuildops.sh to point to the matching gcc version. After that I had to create some symlinks in /opt/matlab/bin/glnxa64 pointing to the appropriate libraries of my Linux distribution to resolve the remaining linking errors.

After successfully compiling your MATLAB code, you will find two files in the <project name>/distrib subdirectory: an executable binary file named after your project and a luncher script named run_<project name>.sh. Create a tar archiv containing these two files and the MATLAB Compiler Runtime (MCR) installer (I found mine at /opt/matlab/toolbox/compiler/deploy/glnxa64/MCRInstaller.bin). Then copy the archive to your test machine (or directly to your cloud instance if you’re tough).

Testing
On your test machine, run MCRInstaller.bin (with “-console” flag if you don’t have an X display) to install the MCR, for example in ~/MCR. Because the installer might have more dependencies than your script, you should directly copy the ~/MCR directory and not the MCR installer to your EC2 instance, so you don’t have to run the installer again.

Now you can try calling run_<project name>.sh. The first parameter is the path to your MCR. The following arguments are passed to your MATLAB code. For my example project I would run (replace XX with your MCR Version):

 ./run_SquareRoot.sh ~/MCR/vXX 5 data1.mat

On your first try, this will probably cause some errors due to missing libraries in your Linux install. Try to install those. The following worked for me:

 apt-get install xserver-xorg libxp6

That’s it. Move your binary file, the loader shell script and your MCR directory to your cloud computing instance and let the number crunching begin. 😉

Alternative
You might really want to check out GNU Octave which is an open-source MATLAB alternative. Its syntax is MATLAB compatible so your scripts might run on Octave without any changes. If you do not use special MATLAB toolboxes or objects, chances are that you can use Octave instead of MATLAB and therefore avoid messing around with the MATLAB compiler, its runtime and those library issues. Just install Octave on your cloud instance, for example with

apt-get install octave

and directly run your MATLAB scripts.

In my case, I managed to get my script working with Octave by only making minor changes to avoid the use of objects but Octave turned out to need about 50 time more computation time than MATLAB. That pretty much cancels out the advantage of cloud computing for me. That’s why I still use MATLAB.

Identitätskrise

Heute hatte ich etwas ganz einfaches vor: ich wollte einfach nur mal nach einer Kneipe in Berlin Friedrichshain suchen, die am 25. Dezember, also dem ersten Weihnachtsfeiertag, spät Abends noch geöffnet hat. Ich wollte mich im Vorfeld erkundigen nachdem ich bei einer ähnlichen Aktion letztes Jahr feststellen musste, dass selbst Friedrichshain zu dieser Zeit kneipentechnisch eine Geisterstadt ist.

Ich wollte zum Beispiel beim Jailbreak nachgucken. Auf deren Internetseite steht, wie übrigens auch auf Internetseiten anderer Lokalität, erstmal nichts direkt zu den Öffnungszeiten in der Weihnachtszeit. Wieso eigentlich nicht? Die Öffnungszeiten eines Lokals gehören doch zu den Kerninformationen die ich auf dessen Website finden möchte und zwar aktuell und fehlerfrei. Nichts ist ärgerlicher, als sich mit ein paar Leuten in einer Kneipe zu verabreden und dann vor geschlossenen Türen zu stehen.

Zumindest ist dort auch gleich eine Handynummer angegeben die man anrufen kann, wenn man Fragen zu den Öffnungszeiten hat. Also habe ich die Nummer angerufen, nur um eine Ansage zu hören, dass diese Nummer nicht mehr vergeben ist. Na toll.

Meine nächste Idee war das Impressum der Website zu prüfen, ob da vielleicht eine funktionierende Telefonnummer oder eMail-Adresse zu finden ist. Impressum? Fehlanzeige. Zwar muss jede deutsche Website ein solches aufweisen, aber offensichtlich ist noch kein Abmahn-Anwalt auf diese Seite gestoßen.

Meine nächste Idee war mal beim WHOIS der DENIC nachzusehen, ob es eine gute Kontaktmöglichkeit gibt. Tja, leider bin ich grandios am dort eingebauten CAPTCHA gescheitert, der mich nach einer handvoll Lösungsversuchen erstmal gesperrt hat. Deshalb ging dann wohl auch die WHOIS-Abfrage über die Konsole von meiner IP aus nicht mehr.

Das ist das erste mal, dass ich als Mensch bei einem CAPTCHA endgültig versagt habe. Daraus kann ich eigentlich nur den Schluss ziehen, dass ich irgendwann in letzter Zeit durch einen Androiden ersetzt wurde. Das gibt Extrapunkte für den Turing-Test der DENIC.

Comic by xkcd

Autokäufer

Damit es nicht heißt, ich würde nur gegen Fahrradfahrer wettern, geht es mir dieses Mal um Autofahrer. Genauer gesagt geht es mir um Autokäufer.

Da scheint es ein paar besonders kluge Exemplare zu geben, die sich gestern einen knapp zwei Meter breites SUV gekauft haben und heute merken, dass sie in keine 2,20m bereite Parklücke im Parkhaus passen.

Dann beschweren sie sich über ihre Lobbyorganisation darüber, dass die Parkhäuser zu eng wären damit sie dann hoffentlich morgen breitere Parkhäuser haben. Und irgendwie ahne ich, dass das dann alle Nutzer des Parkhauses bezahlen dürfen, unabhängig von der Breite numberswiki.com

des benötigten Parkraums.

Ich frage mich, was sich diese Leute beim Autokauf denken. Man weiß doch vorher ob man vor hat, ab und an mal in ein Parkhaus zu fahren und man weiß auch wie viel Platz man in einem solchen Parkhaus hat. Denken diese Autokäufer etwa, dass die Parkbuchten über Nacht breiter werden, nur weil sie sich so einen Straßenpanzer gekauft haben?

Von mir aus sollen doch Parkhäuser auf breitere Parkplätze umgebaut werden. Aber dann sollen sie bitte ein paar kleinere Parkplätze übrig lassen und diese gegen eine geringere Gebühr Kleinwagenfahrern zur Verfügung stellen. Ich würde das nur gerecht finden.

Peer Review gone wild

Gestern Abend bin ich in Fefes Blog über einen Zeitschriftenartikel mit dem Titel “We are sorry to inform you…” (Orginalquelle*) gestolpert. In dem Artikel geht es um Fälle in denen bahnbrechende wissenschaftliche Erkenntnisse von Reviewern total verkannt wurden.

Wissenschaftliche Artikel durchlaufen vor ihrer Veröffentlichung in einem Fachmagazin den Peer-Review-Prozess. Dabei wird der Artikel einem Peer, also einem “Ebenbürtigem” vorgelegt. Gemeint ist damit ein (vom Autor) unabhängiger Wissenschaftler mit dem gleichen Fachgebiet. Dieser prüft den Artikel dann unter verschiedenen Gesichtspunkten wie Originalität, Signifikanz und Plausibilität und spricht dem Herausgeber der Zeitschrift seine Empfehlung aus ob der Artikel veröffentlicht werden sollte.

How much damage could be caused by a peer reviewer having a bad day?

Diese Frage stellt der oben genannte Artikel und zeigt dazu negative Reviews von, in der Retrospektive, besonders bedeutenden wissenschaftlichen Arbeiten aus dem Bereich Informatik.

Die meisten dieser Artikel sagen mir persönlich nichts. Dazu bin ich wohl zu wenig Informatiker. Aber auf zwei Artikel möchte ich hier doch näher eingehen.

Als erstes möchte ich kurz auf ein Review zu Alan Turings Artikel “On Computable Numbers, with an Application to the Entscheidungsproblem“, erschienen 1936 in Proceedings of the London Mathematical Society (Link*), eingehen. In dem Paper wird u.a. die Turingmaschine vorgestellt. Zum deren Sinn bemerkt der Reviewer kurz:

I strongly suspect the machine is too simple to be of any use.

Außerdem kann es ja nicht angehen, dass ein in einer britischen wissenschaftlichen Zeitschrift ein Artikel ein deutsches Wort im Titel trägt.

Turing should remember that the language of this journal is English and change the title accordingly.

Übrigens, der britische Staat und Turing hatten ein gespaltenes Verhältnis zueinander. Einerseits war er quasi ein Kriegsheld, weil er maßgeblich am Hack der Enigma beteiligt war. Andererseits wurde er wegen einer homosexuellen Beziehung von einem britischen Gericht verurteilt und bekam als “Therapie” seiner Homosexualität Östrogen verordnet wodurch ihm Brüste more info

wuchsen.

Das zweite Review das ich vorstellen möchte ist zu “A Mathematical Theory of Communication” von Claude E. Shannon, 1947 im Bell System Technical Journal veröffentlich (Link). Mit diesem Paper hat Shannon die Informationstheorie begründet indem er beschrieben hat, unter welchen Bedingungen ein von einem Sender kodiertes Signal am Empfänger fehlerfrei dekodierbar ist.

Der Reviewer verkennt in diesem Fall die Bedeutung der Idee, für eine technische Betrachtung die Semantik der zu übertragenden Nachricht zu ignorieren.

The author claims that “semantic aspects of communication are irrelevant to the engineering problems,” which seems to indicate that his theory is suitable mostly for transmitting gibberish.

Des weiteren bezweifelt der Reviewer die Bedeutung von diskreten Nachrichtenquellen. In einer vertraulichen Mitteilung an den Herausgeber bemerkt er dazu:

At any point, there are sexy topics and unsexy ones: these days, television is sexy and color television is even sexier. Discrete channels with a finite number of symbols are good for telegraphy, but telegraphy is 100 years old, hardly a good research topic.

Heute, im “digitalen Zeitalter”, in dem sich alles auf Bits und Bytes zu reduzieren scheint, wirkt eine solche Einschätzung natürlich abwegig. Wenn man sich allerdings in die späten 1940er Jahre hinein versetzt, als Fernsehen der letzte Schrei war, kann man schon in die Versuchung kommen, diese antiquierte Telegraphen-Technologie als Sackgasse zu betrachten. Dieses Beispiel sollte man vielleicht im Hinterkopf behalten wenn man über den Sinn von Grundlagenforschung nachdenkt.

Als Gag zum Abschluss noch ein Tipp, den der Reviewer den Leuten in den Bell Labs gibt:

IBM has decided to stay out of the electronic computing business, and this journal should probably do the same!

* Einige Links in diesem Artikel führen zu elektronischen Zeitschriftenarchiven für deren Inhalt man in der Regel bezahlen muss. Von einem Uni-Netzwerk aus kann man ggf. dennoch kostenlos auf diese Inhalte zugreifen, wenn die Hochschule bzw. eine angeschlossene Hochschulbibliothek dieses Zeitschriftenarchiv abonniert hat.

Sweet: KDE Schreibtischglobus Marble in Version 0.10

Heute habe ich festgestellt, dass die neue KDE Version 4.5 in den Repositories von Arch Linux zur Installation zur Verfügung steht. Das habe ich natürlich gleich mal ausprobiert. Ich habe dann festgestellt, dass das Arbeitsflächen-Design überarbeitet wurde und beim ersten Anblick einen akuten Anfall von Augenschmerzen verursacht. Aber ich denke, dass ist mehr eine Gewöhnungssache.

Das Tolle an diesem Update ist aber unter anderem, dass der KDE Schreibtischglobus Marble in der Version 0.10, die mir schon im aktuellen Linux Magazin (09/10 S. 34) schmackhaft gemacht wurde, enthalten ist. Marble versucht, dem KDE Nutzer einen ähnlichen Funktionsumfang wie Google Earth zu bieten. Allerdings kann Marble natürlich nicht mit hoch aufgelösten Luftbildern dienen. Dafür kann man verschiedene freie Karten auf den virtuellen Globus projezieren.

Zum Beispiel kann man sich die freie Straßenkarte OpenStreetmap anzeigen lassen. Diese ist besonders gut geeignet um ein neues Feature in Version 0.10 zu nutzen: die Routenplanung. Marble ist nun in der Lage, ebenfalls durch Daten aus dem OpenStreetmap Projekt, eine Punkt-zu-Punkt Navigation anzubieten. Dazu kann man einfach den Start- und Zielort auf der Karte anklicken und es wird eine Route für Kraftfahrzeuge, Fahrradfahrer oder Fußgänger berechnet. Auch das Setzen von Via-Punkten ist möglich.

Kfz-Route
Kfz-Route

Fahrrad-Route
Fahrrad-Route

Fußgänger-Route
Fußgänger-Route

Ich habe dieses neue Feature gleich mal ausprobiert und eine Route vom Barkhausen-Bau zur Alten Mensa auf dem Campus der TU Dresden berechnet. Anhand dieser, zugegeben recht trivialen Route kann man doch die unterschiedlichen Randbedingungen der Routenplanung für die verschiedenen Verkehrsteilnehmer sehen.

Kraftfahrzeuge werden, wie es nicht anders zu erwarten war, nur über die öffentlichen Straßen geführt. Ein Fahrradfahrer wird dagegen durch Schranken hindurch (da bin ich mir nicht ganz sicher, ob das ein Bug oder ein Feature ist) über eine private Lieferantenzufahrt geschickt. Der Fußgänger kann eine noch kürzere Route über Fußwege und Treppen benutzen.

Satellitenbild mit Wolken
Satellitenbild mit Echtzeit-Wolken

Ein weiteres tolles Feature ist die “Echtzeit”-Darstellung von Wolken auf Satellitenbildern. “Echtzeit” bedeutet in diesem Fall, dass die Bilder alle 3 Stunden aktualisiert werden. Das Ganze scheint auch nur bei Tageslicht zu funktionieren. So ist auf dem Bild gerade keine einzige Wolke über der Ost-Hälfte Amerikas zu sehen, was ich mir irgendwie schwer vorstellen kann. Auch ist die Darstellung nur bei einem relativ großem Maßstab möglich. Trotzdem ein tolles Feature.

Neben der Erde kann Marble übrigens auch noch andere Himmelskörper darstellen. Im Lieferumfang ist neben der Erde auch noch der Mond enthalten. Weitere Himmelskörper wie der Mars oder die Venus können mit wenigen Klicks aus dem Internet nachinstalliert werden.

Alles in allem ist Marble ein weiteres gelungenes Stück Open Source Software.

Hochspannende Experimente

Zur Langen Nacht der Wissenschaften 2010 in Dresden habe ich es mir als Elektrotechniker nicht nehmen lassen, mir die Experimentalshow vom Institut für Elektrische Energieversorgung und Hochspannungstechnik anzusehen. Eine ähnliche Vorführung habe ich zwar schon im Grundstudium gesehen, aber diesmal hatte ich die digitale Spiegelreflexkamera von meiner Freundin dabei. 😉

Von der Show ordentliche Fotos zu machen erwies sich wie erwartet als schwierig und zum Teil einfach auch als Glückssache, gerade dann auszulösen, wenn es spannend wird. Von den vielen Experimenten – unter anderem wurde auch ein mit Besuchern besetzter PKW auf seine Spannungsfestigkeit hin “geprüft” – sind mir nur von zwei Experimenten halbwegs brauchbare Bilderserien geglückt. Die Bilderserien habe ich zu animierten GIFs zusammen gestellt.

Entladung gegen Platte
Experiment 1: Beregneter Hochspannungsisolator (klicken um Animation abzuspielen)

Beim ersten Experiment wurde ein Hochspannungsisolator, wie er an Leitungsmasten verwendet wird, beregnet. Gut zu sehen sind die Entladungen entlang des Wasserfilms.

Entladungen an Wanddurchführung
Experiment 2: Entladungen an Wanddurchführung (klicken um Animation abzuspielen)

Beim zweiten Experiment wurde eine Leitungsdurchführung, die verwendet wird, um eine Freilandleitung in ein Gebäude zu führen, bis zum Durchschlag belastet.

Stargardobyl

Wo ich gerade bei strahlenden Nachrichten war:

In der Stagarder Straße, mitten in einem Wohngebiet in Berlin-Prenzlauer Berg, wurde zufällig eine Strahlungsquelle entdeckt.

Frank Rieger hat in seinem Blog den Fund, die provisorische Abschirmung und die Bergung vorbildlich dokumentiert.

Probleme mit Radioaktivität soll es auch in Hannover geben, wie ich über Fefes Blog erfahren habe.

Ich spiele ja schon seit längerem mit dem Gedanken, mir mal einen Geigerzähler zuzulegen. Nach der Meinung eines Kommentators in Franks Blog gehört der ja sowieso in jeden gut ausgestatteten Haushalt. 😉

Andererseits bin ich leicht radiophob und sollte deshalb vielleicht garnicht so genau wissen, was in meiner Umgebung alles wie sehr strahlt.

So lebe ich beispielsweise in einem Gebiet mit hohem Potential für erhöhte Radonkonzentrationen in der Raumluft. Zudem ist der Berg an dessen Hang ich wohne bergmännisch erschlossen und in der Nähe wurde früher Uran abgebaut – beides Indikatoren für eine erhöhte Gefährdung durch Radon. Sollte ich dann tatsächlich eine erhöhte Strahlungsbelastung in der Wohnung, in der ich lebe und arbeite, feststellen kann ich dagegen auch ersteinmal nichts unternehmen und müsste mit dem Wissen leben.

Daher denke ich, dass ich mir frühestens für die nächste Wohnungsbesichtigung einen Geigerzähler zulegen werde. 😉

Diskreter Atomtransport

Radioactive Van
Kleintransporter mit radioaktivem Gefahrengut

Eine Story von der Analog-Autobahn:

Am Samstag den 7. August 2010 habe ich um 10:25 Uhr auf der A14 hinter dem Dreieck Nossen in Richtung Leipzig fahrend diesen Gefahrguttransporter mit offensichtlich radioaktiver Fracht entdeckt.

Der Vito mit tschechischem Kennzeichen fuhr etwa mit 130 km/h und hat sich somit an die vorgegebene Richtgeschwindigkeit gehalten. In der folgenden Baustelle mit einer Geschwindigkeitsbegrenzung von 60 km/h hat er es dann aber nicht so genau genommen. Während ich mit fast schon 70 km/h (laut Tacho) leicht zu schnell unterwegs war, ist er mir davon gefahren.

Dabei musste ich an die Story denken, die ich vor kurzem gehört habe. Demnach sollen die Betreiber von Atomkraftwerken langsam keine Lust mehr auf die ständig blockierten und schlechte PR verursachenden Castor-Transporte haben. Die versuchen sie jetzt zu umgehen, indem sie die zu transportierende Fracht soweit zerkleinern, bis ein gewisser Grenzwert unterschritten ist und sie so diskret und ohne großes Trara in Kleintransportern von A nach B geschafft werden kann. Ich habe dazu aber im Internet keine Quelle gefunden insofern sind das natürlich alles nur Mutmaßungen.

Was genau der Transporter geladen hatte, kann ich natürlich nicht sagen. Ich weiß nichtmal, ob der Transporter nicht leer war. Oder werden bei Leerfahrten die Warntafel abgeschraubt und die Warnzeichen überklebt?