Da passt noch mehr drauf…

Gestern war so einer der Tage, wo sich das persönliche Karma mal dachte: hey, lass mal Spaß haben. Also ging folgerichtig unter anderem unser Kühlschrank kaputt (recht alt, aber trotzdem blöd, wenn man auf einmal die Tür Dank gebrochenem Scharnier in der Hand hat). Nach kurzen Reparaturversuchen (wie viele Patente für Scharniere gibt es eigentlich und werden die Dinger aus Gold geschmiedet!?) die schnelle Entscheidung, dass ein neues Gerät hermüsste. Spart ja dann auch ordentlich Strom, wie einem der große A++ Sticker gleich vermittelt.

Da sind wir dann auch direkt beim Thema: Offensichtlich kann man in Marketingabteilungen nicht ertragen, dass so ein Kühlschrank eine glatte, weiße Front hat. Da muss man doch ein paar Infos drauf unterbringen. Also als erstes natürlich den großen Sticker mit A++ und den Gerätedaten (Energiepass oder wie man das Ding nennt). Gut, den lasse ich mir ja noch gefallen – gut für Vergleichbarkeit.

Aber warum kommt dann ein zweiter Aufkleber drauf, welcher tatsächlich nur „A++“ in großen Lettern draufschreibt? Und hey, wir sind hip und packen noch einen weiteren dazu, welcher die LED-Innenbeleuchtung herausstellt. Vielleicht noch erwähnen, das man sich für das Gerät registrieren soll? Klar, weiterer Sticker. Dann war da noch ein recht großer, den ich verdrängt habe (hätte mal ein Foto machen sollen. Man kann übrigens den Dichtgummi der Tür abnehmen. Das ist wichtig, dafür muss dann natürlich ein Sticker vorne drauf! Und last but not least ein Sticker, welcher ein Foto des Griffes darstellt. Ernsthaft? Danke Hoover

Also nach all dem Hin&Her mit alten Kühlschrank raus und neuen rein (ein Spaß war das) mal die Front bereinigen. Bei der Masse an Aufklebern war ja fast schon klar, dass einige besser halten als andere. Ich habe nun also ohne Übertreibung eine Viertelstunde an dem brandneuen Kühlschrank schrubben dürfen, bis alle Klebereste entfernt waren.

UPDATE: Das ist ja wohl unfassbar. Schnell noch für die 2 Jahre Garantie auf der Homepage registrieren brachte mich dann gleich zu folgendem…

registerhoover

Natürlich „Niemals für diese Webseite“. WTF!?

UPDATE 2: Das überrascht mich jetzt auch nicht mehr, nachdem ich deren Marketing mal über das Kontaktformular anschreiben wollte…

HooverEMailValidierung

Kindersicherung für das Internet mit dem Raspberry Pi

Jeder, der Kinder hat, sollte sich ab einem bestimmten Alter ernsthaft Gedanken machen, wie man diese vor den negativen Seiten des Internets so gut wie möglich schützen kann, ohne gleich das moderne Teufelszeug komplett zu verbieten. Dazu aber vorab: es muss einem klar sein, dass man es am Ende nur erschweren kann. Jedes halbwegs pfiffige Kind findet Wege, um auf das Netz zuzugreifen – und sei es nur, in dem es einfach zu einem/r Freund(in) geht, wo das WLAN offen ist.

Ich habe hier nun ein Kombination von FritzBox und Dansguardian auf dem Raspberry Pi im Einsatz. Die FritzBox macht zwei Dinge: 1. die Geräte der Tochter generell vom Internet ausschließen (Mail ausgenommen) und b) auch den verwendeten Raspberry Pi zeitlich beschränken – ab 20:15 geht das Internet dort aus.

Hauptkomponente für die Kindersicherung ist ein Raspberry Pi, auf welchem Dansguardian installiert ist.  Praktischerweise ist Dansguardian Bestandteil von Raspbian, daher ist für die Installation nicht mehr nötig als

sudo apt-get install dansguardian squid

Dies installiert sowohl Dansguardian als auch den Proxy Squid auf dem System. Dann folgte ich letztlich der Anleitung unter http://dokuwiki.nausch.org/doku.php/centos:dansguardian_2.10 – das werde ich jetzt hier nicht nochmal nachbeten, aber man sieht schon, dass die Installation unter Raspbian einfacher ist als unter dem im Link verwendeten CentOS :)

Statt also das volle Setup zu beschreiben (vielleicht mag das „jemand“ machen, der dies hier liest und dessen Raspberry Pi diese Funktionen eben noch nicht fertig installiert hat…) möchte ich nur die wichtigsten Eckpunkte hier zusammenfassen, die ich hintergelegt habe.

  1. Wie oben schon gesagt verbietet meine FritzBox den Geräten meiner Tochter den Internetzugriff generell (damit ist diese Möglichkeit des Aushebelns versperrt)
  2. Auch nutze ich die FritzBox für die zeitliche Kontrolle. Das geht grundsätzlich auch in Dansguardian, aber realistisch ist es so, dass man mal flexibel die Online-Zeit ändern möchte (Hausaufgaben-Recherche am Wochenende dauert länger…) und das geht im User-Interface der FritzBox nun mal am einfachsten
  3. Der Raspberry Pi ist kein Router, also auch wenn man diesen als Gateway im Client hinterlegt, kommt man damit nicht ins Internet
  4. DNS-Eintrag und/oder IP-Adresse des Raspberry Pi sollten fix sein, damit man ihn als Proxy hinterlegen kann
  5. Der installierte Squid sollte nur auf localhost lauschen (sonst wird das informierte Kind dessen Port herausfinden und ihn direkt nutzen)
  6. Gerade in der Anfangsphase am besten mal mit dem Kind und dessen iPad, iPhone, Rechner, … es alles machen lassen, was es machen möchte und dabei einen scharfen Blick auf die Logs haben. Dabei finden sich dann irgendwelche Online-Dienste (insb. Spiele, welche Daten in die Wolke schicken), welche geblockt werden. Die kann man dann in die Ausnahmen von Dansguardian aufnehmen

Zum Abschluss möchte ich noch einmal betonen: wo ein Wille ist, da wird das Kind einen Weg finden. Ich selber weiß mehrere verschiedene Wege, wie man solche Systeme umgehen kann (sage sie hier aber nicht :)). Daher prüfe ich regelmäßig mal nach, ob die Logfiles von Dansguardian zu den Zugriffen passen – wenn da offensichtlich Einträge fehlen, dann wird der genommene Weg gefunden und abgewürgt.

Natürlich könnte ich es nahezu 99% sicher hinbekommen (nur Whitelisting erlauben) – aber a) ist das dann sch*** zu pflegen, b) geht dann immer am Ende irgendwas nicht und c) bleibt immer noch das eine Prozent über (ich werde jetzt hier nicht zu viel dazu sagen, aus welchen beschnittenen Firmennetzen ich bisher trotzdem immer am Ende mit Vollzugriff rausgekommen bin…).

uConnect 8.4A(N)

Ich schreibe hier zwar nur alle Jubeljahre (meist in kleineren Wellen) Einträge, aber beobachte in Piwik sehr gerne, welche Posts denn besonders beliebt sind. Offensichtlich gibt es momentan zwei Favoriten, welche für einen Großteil der Einträge hier im Blog sorgen.

Auf Platz zwei findet sich jener, wie man eine Windows-XP-Retail-DVD verwenden kann, um ein XP mit einem OEM Key zu installieren. Mal ernsthaft Leute, XP? Ich meine, der Rechner, auf dem ich das damals gemacht habe, existiert zwar noch (mit Elementary OS als Default-Boot), aber wir haben 2016!?

Wie auch immer: recht überraschend für mich auf Platz 1 sind meine Erfahrungen mit dem RCD 510 von Volkswagen, welches ich damals in meinem Golf VI installiert hatte. Nun ist die Zeit weiter vorangeschritten und nach einem sehr kurzen weiteren Ausflug in den VAG-Konzern steht mittlerweile ein Wagen aus dem Hause Fiat (im weitesten Sinne) vor der Haustür. Dieser hat ein uConnect 8.4A installiert (mit Europa-Navi aktiviert).

Und was soll ich sagen liebe Ingenieure aus Wolfsburg? Das System funktioniert einfach. Egal ob Bluetooth, SD-Karte, USB (iPod) oder Aux-In. Ton kommt wie erwartet, die Anzeigen der Restzeit sind richtig, es verbindet sich schnell usw. Damit erfüllt es genau die Dinge, die ich damals so bemängelt habe – denn das beste, was ich über ein Entertainment-System sagen kann, ist, dass es unauffällig klaglos seinen Dienst verrichtet. 100 von möglichen 100 Punkten in dem Bereich.

Aber auch der Rest passt – die Bedienung ist sehr intuitiv und das Touch-Display reagiert nahezu sofort (gut, seien wir ehrlich, an ein kapazitives iPhone-Display kommt es nicht ran). Bis hin zu DAB+ ist alles drin, was ich brauche. Und dazu kommt auch noch, dass das System (wegen des Imports) gehackt wurde und ich daher Zugriff auf erweiterte Funktionen habe (Frontkamera, Spezialfunktionen (SRT), aktuellste Updates der Karten, …)

Das wollte ich nur mal gesagt haben – sonst denkt Ihr noch, ich würde nur meckern :)

uConnect 8.4A

*DAB+: nachdem man eine entsprechende Antenne angesteckt hat, welche bei den Import-Autos nicht verbaut ist…

IPv6 bei manitu und netcup

Ich fahre schon eine ganze Weile meinen Hauptserver bei manitu und mein Backupserver ist aktuell bei netcup (u. a. die Verfügbarkeit von IPv6 ließ mich damals wechseln). Also (fast) alle Dienste laufen auf manitu und die Konfiguration wird täglich als Sicherung zu meinem netcup-Server übertragen (welcher aber nebenher auch 2 oder 3 Dienste bereitstellt, welche aus diversen Gründen nicht bei manitu liegen – meist wollte ich den Hauptserver nicht zu sehr in die Schusslinie bringen).

Wie auch immer, bei beiden Anbietern könnt Ihr bequem im Kundeninterface IPv6 aktivieren und bekommt einen Adressblock mit Millionen von Adressen (und damit wäre auch schon einer der riesigen Vorteile von IPv6 genannt – jeder Dienst, jede Subdomain bekommt bei mir seither eine eigene IPv6 – bei IPv4 musste ich bis dato mit ingesamt fünf auskommen).

In der Aktiverung der Adressen unterscheiden sich die beiden aber etwas. Zum einen habe ich bei manitu noch Debian 7.x am laufen, zum anderen ist die Maschine bei netcup nur virtuell.

Bei manitu / Debian 7.x füge ich neue Adressen in /etc/network/interface so hinzu:
# The primary network interface
auto eth0
iface eth0 inet static
address 89.238.64.35
netmask 255.255.255.0
network 89.238.64.0
broadcast 89.238.64.255
gateway 89.238.64.1
# dns-* options are implemented by the resolvconf package, if installed
dns-nameservers 217.11.48.200 217.11.49.200

iface eth0 inet6 static
address 2a00:1828:2000:370::2
netmask 64
gateway 2a00:1828:2000:370::1

up /sbin/ifconfig eth0 inet6 add 2a00:1828:2000:370::3/64

up /sbin/ifconfig eth0 inet6 add 2a00:1828:2000:370::4/64

Oder kurzgefasst: die erste IPv6 gebe ich direkt per address an, alle weiteren mittels /sbin/ifconfig eth0 inet6 add 2a00:1828:2000:370::xxxx/64.

Als positiven Nebeneffekt kann man den entsprechenden ifconfig-Aufruf einfach in die Shell werfen und das Interface ist sofort da.

Bei netcup / Debian 8 sieht es etwas anders aus. Auch dort ist ein Eintrag in /etc/network/interfaces zu platzieren, welcher aber wie folgt aufgebaut ist:

# The primary network interface
auto eth0
iface eth0 inet static
address 37.120.175.72
netmask 255.255.252.0
broadcast 37.120.175.255
gateway 37.120.172.1

iface eth0 inet6 static
address 2a03:4000:6:70b3::1
netmask 64
gateway fe80::1

auto eth0:1
iface eth0:1 inet6 static
address 2a03:4000:6:70b3::2
netmask 64

auto eth0:2
iface eth0:2 inet6 static
address 2a03:4000:6:70b3::3
netmask 64

Hier werden also alle Adressen mittels eines neues eth0:x-Eintrages hinzugefügt. Es gibt zwei böse Fallen, welche einen bei einem netcup-vServer erwarten:

  1. Die Änderung wird erst aktiv, wenn man den virtuellen Server ausschaltet. Und damit meine ich im Kundeninterface den Power-Off, nicht ein „reboot“ oder ähnlich in der Shell.
  2. Wenn man die IPv6-Adressen hinzufügt, dann sind diese ja statisch (wie man auch sieht). Dabei muss man aber auf jeden Fall auch jene vom IPv4 statisch setzen. Lässt man diese auf DHCP (was der Default ist), so läuft es einige Minuten (ca. eine halbe Stunde im Schnitt) wie es soll. Dann holt sich die IPv4 per DHCP ein Update und überschreibt in dem Schritt die Default-Route des IPv6 mit. Die Adressen sind dann noch da, mangels korrektem Routing sind sie aber nicht erreichbar. Durch die Verzögerung eine böse Falle.

Von Apache zu nginx mit IPv6 und SSL

Seit ewigen Zeiten (irgendwas größer 15 Jahre) laufen alle meine Webseiten auf Apache. Zu seiner Zeit war Apache die einzige wirkliche Wahl und die Gewohnheit siegt. Mit Debian 8 steht nun für mich ein Update auf der ToDo-Liste, welches einige Änderungen an der Konfiguration nach sich ziehen würde (es ist eine lang gewachsene Konfiguration) und so fand ich, es wäre mal wieder Zeit etwas neues zu lernen.

Daher startete ich ein Migrationsprojekt mit folgenden Zielen:

  • Alle Webseiten ziehen um auf nginx
  • Alle Webseiten werden über IPv6 erreichbar (bisher rund 2/3)
  • Alle Webseiten werden nur noch mittels HTTPS ausgeliefert (HTTP-Anfragen werden automatisch weitergeleitet)

Wie immer war und ist Google ein guter Freund bei vielen Fragen (meine alte Konfiguration strotzt nur so von Alias, Redirect, RedirectMatch usw.) und ich will in einer Serie von Einträgen meine Erfahrungen und Konfigurationen hier veröffentlichen, damit sowohl ich als auch andere Leser nachvollziehen können, wie man das angehen kann.

Folgende Einträge führen zum Ziel (werden Stück für Stück geschrieben werden):

Das wird ein paar Tage dauern, bis alle Einträge da sein werden – parallel werden nämlich noch einige weitere Domains umziehen.

Übrigens war und ist dieses Blog eines der ersten gewesen, welches ich ungezogen habe. Wenn Ihr das also lest, so habt Ihr es bereits mittels nginx beliefert bekommen und die Verbindung ist verschlüsselt.

Fauler Apfel

Es ist kein Geheimnis, dass ich schon recht lange alle meine interne IT auf Apple-Produkte umgestellt habe. Aber in den letzten sagen wir 18 Monaten gab es einige Momente, in welchen ich daran zweifelte. So waren sowohl Mac OS 10.10 Yosemite und iOS 8 recht katastrophal für mich (wer braucht schon WLAN?) und nur ein eigentlich nicht geplanter früher Sprung auf 10.11 El Capitan und iOS 9 ließ mich überhaupt meine Geräte weiter so benutzen, wie es gedacht war.

Nun, einige kurze schlimme Ausflüge zu Windows (8.1 und 10) und die nun offiziellen Releases von Apple haben mich fast wieder versöhnt und ich könnte mich wieder gemütlich in meinem goldenen Käfig zurückziehen – aber eine Sache war da noch.

Apple hat ja iPhoto und Aperture beide aufgegeben und alles durch die zumindest diskussionswürdige App „Fotos“ ersetzt. Für meine Bedürfnisse ist Fotos an sich ausreichend, aber für eine Sache möchte ich am liebsten nach Cupertino fliegen und jemanden den A*** versohlen. Hat man nämlich vorher nicht nur ein iPhoto oder ein Aperture genutzt, so steht man vor einem Problem. Beim ersten Start kann man genau eine Bibliothek importieren.

Nun hatte ich beides im Einsatz und in meinem jugendlichen Leichtsinn ging ich davon aus, dass man erst eine konvertiert und dann die zweite importiert. Nö, geht nicht. Nun gut, dann konvertiert man halt die zweite Library auch (man geht in den Bilder-Ordner, Rechtsklick auf die zweite Library und „Öffnen mit“) und führt die dann zusammen. Nö, Ergebnis sind zwei Fotos-Libraries, welche sich nicht zusammenführen lassen.

Im Netz finden sich einige Anleitungen und Tools, um z. B. iPhoto und Aperture zusammenzulegen, für Fotos gibt es (noch) nichts. Am Ende läuft es darauf hinaus, dass man eine der beiden gepflegten Libraries nehmen muss und einfach die Bilder ins Dateisystem exportiert und in Fotos wieder importiert. Schön ist anders und es geht hier um das wichtigste auf meinen Systemen. Bilder sind zentrale Erinnerungsstücke und admit spielt man nicht. Ohne meine Backups hätte ich mir zeitweise wirklich große Sorgen gemacht.

Vielleicht doch mal die paar zehntausend Bilder mal auf Papier entwicklen lassen und in einen feuerfesten Safe packen…?

Ausschalter

Heute wollte ich mal wieder einen Podcast aufnehmen und direkt vor Aufnahmebeginn brach mein Netzwerk zusammen. Alle Geräte meckerten auf einmal, dass die IP-Adressen schon belegt wären, holten sich neue und die war dann wieder belegt. Panik kroch in mir hoch und die Aufnahme fiel direkt ins Wasser. 

Hilft ja nichts, Fehlersuche musste eingeleitet werden. Alle Komponenten mal durchbooten (FritzBox, 2* Raspberry Pi, 2* AirPort Extreme, 2* WLAN2LAN Bridge usw.). Keine Besserung. Notebook direkt am LAN-Port der FritzBox: keine Besserung – bis dort alle anderen Geräte bis auf einen Raspberry Pi (mein DHCP und DNS Server) abgesteckt waren -> Netz geht. 

Damit kann man arbeiten: Langsam einzeln Geräte wieder zuschalten und am Ende (das dauerte eine ganze Weile bis der Schuldige gefunden war). Auf meinem Schreibtisch steht u. a. ein Cisco 7960 als VoIP-Telefon. Dessen Stromstrecker hatte ich gezogen, damit bei der Aufnahme keiner stören kann. Erkenntnis: wenn der Strom aus ist, das LAN-Kabel aber noch steckt, dann krallt sich das Telefon alle IP-Adressen. 

Also ein toller Ausschalter für das gesamte Netz ist: Stecker am Telefon ziehen und ein paar Sekunden warten. 

Da muss man erstmal drauf kommen…

Yosemite…

Yosemite ist einer von den Orten, zu welchem mich mein Drang in die Ferne sicher noch einmal führen wird. Ich mag ja raue und weite Natur und auf meiner Liste der zu bereisenden Ziele ist es recht weit oben.

Aber wie sich einige wahrscheinlich eh schon gedacht haben, geht es um etwas anderes – nämlich Mac OS X 10.10 mit dem Namen Yosemite.

Ich hatte es seit der ersten Beta auf meinem MacBook Pro und im Gegensatz zu vielen hat mich das Design nicht grundsätzlich abgeschreckt (über unnötige Transparenzen ärgere ich mich allerdings noch immer jeden Tag). Nun gut, ich habe meine Macs weder aus Prestigegründen noch wegen des Designs (letzteres schon etwas – die Benutzeroberfläche sollte nicht hässlich sein, aber bis auf Windows XP trifft das für meinen Geschmack auf die meisten zu). Nein, ich habe meine Macs wegen dem soliden UNIX-Unterbau und dem „it just works“. Ich habe das immer verteidigt und auch sonst das meiste vom Apfelladen im Haushalt in Betrieb.

Zurück zu Yosemite – seit nunmehr rund einem Jahr (wie gesagt hatte ich schon Betas) ist Yosemite im Bereich des Funks (gemeint WLAN und Bluethooth – ebenso wie übrigens auch iOS 8) schlichtweg eine Katastrophe. Jedes Update von 10.10.x wurde begierig installiert, da insb. von 10.10.0 bis 10.10.2 das WLAN einfach unbrauchbar war. Soll heißen: um überhaupt mit dem Rechner (welcher über eine Airport Extreme ins Netz geht) arbeiten zu können verlegte ich das eine oder andere Mal ein langes LAN-Kabel quer durch das Haus, welches im Gott sei Dank vorhandenen Thunderbold-LAN-Adapter endete. Ist auf zwei Rechnern ein Problem hier (MacBook Pro 13″ 2011 und 2014) mit unterschiedlichen Ausprägungen.

Mit 10.10.3 schien es so, dass diese Probleme größtenteils gelöst seien. Stimmt insofern, dass ich seitdem im 5 GHz WLAN recht stabil arbeiten kann – das 2.4 GHz Netz bleibt aber eine Baustelle. Hier zu Hause nicht schön aber na ja, nehme ich an den Rechnern halt immer das 5 GHz). Unterwegs aber hatte ich mit 10.10.3 schon die Erfahrung gemacht, dass sich der Rechner nur nach einem Neustart überhaupt sauber in eine Kunden-WLAN einhängen wollte – toll in einem 90 Minuten Termin, dass diese Fehlerdiagnose gleich mal die ersten 15 Minuten gefressen hat. Einfach peinlich. Anderer Termin, selber Rechner: Mitten in einer umfangreichen, komplexen Demo im Browser kommt eine Kernel Panic (es war nicht der bekannt Bilder-Anzeige-Bug, denn ich hatte nichts entsprechendes offen). Natürlich noch besser, schafft unheimlich vertrauen beim Kunden.

„Gut“ beobachten lässt es sich sich auch daran, dass wir mit den beiden Macs gerne mal Age of Empires III über das Netzwerk spielen. Meist muss ich das MacBook Pro 13″ von 2014 erst einmal neu starten, damit eine hoffentlich saubere Verbindung klappt.

Generell ist alles, was so in 2.4 GHz funkt, aktuell am Mac kompliziert – dazu gehört dummerweise auch Bluetooth und als Mac Nutzer hat man natürlich Tastatur und Maus damit in Betrieb – wenn die nicht gerade hoppeln, weil das Bluetooth hoppelt. Ton über Bluetooth geht faktisch nicht, es fängt immer wieder an zu stottern.

Das ist alles einfach nur peinlich und frustrierend. Ich ertappe mich immer mehr wieder dabei, dass ich mit einem Windows 8.1 rumspiele, recht aktiv das Windows 10 Preview mitmache und auch Alternativen wieder interessanter werden (aktuell gefällt mir die Tendenz von Elementary OS doch sehr). Ich meine, wenn mein Mac eh schon nicht stabil ist, dann kann ich ja auch gleich wieder zu etwas mehr Handarbeit zurückkehren (zumal alle meine Server eh unter Linux laufen).

Auf jeden Fall habe ich schon eine ganze Weile meine Argumentation zurückgefahren, dass jemand, der keinen Stress haben will, lieber die paar Euro in Apple investieren soll. Ist momentan eher der Einäugige unter den Blinden als die optimale Lösung.

 

Noch mehr Spaß mit Exim4 und GnuTLS unter Debian

Ach was eine Freude – ich hatte am Wochenende viel Spaß dabei, ein eigentlich ganz nettes Windows Phone zu konfigurieren. Dass es bei verstelltem Datum bei allen Updates und Co. durchdreht sei hier mal nur erwähnt, aber das eingebaute Mailprogramm hat mir noch mehr graue Haare beschert.

Nachdem alles richtig eingestellt war (tausendmal gegengecheckt mit Thunderbird) wollte es ums Verrecken nicht korrekt senden – die Meldung „relay not permitted“ flutete meine (seit Jahren stabile) Exim4-Konfiguration.

Ich war am verzweifeln und konnte einfach nicht verstehen, warum er überhaupt auf die Idee kam, wo doch definitiv die Haken für das Senden mit Nutzername und Passwort gesetzt waren (und es damit ja kein Relay mehr ist).

Lange Rede, kurzer Sinn: habt Ihr einen Exim-Mailserver auf dem aktuellen Stable von Debian (Stand heute 7.8), so kompiliert ihn mal fein neu mit OpenSSL und wie durch ein Wunder geht es dann. Seufz.

Aber Microsoft kriegt echt einen Extra-Preis – statt irgendwas im Sinne von „STARTLS geht nicht“ zu sagen wird dreist einfach so ohne Nutzer verschickt…

… und auf welcher Seite ist der Tank?

Kennt Ihr noch die gute, alte Audi-Reklame, in welcher man rätselt, auf welcher Seite der Tank ist (gibt davon sogar eine Neuauflage)? Ist ein echt typisches Problem, wenn man wieder mal in einen Mietwagen steigt und den vor Rückgabe ja wieder füllen muss. Stellt Euch mal an eine Flughafen-Tankstelle bei der Rückgabestelle – da wird immer gerätselt und gerätselt.

Ich hatte das Freitag auch wieder und dann verrät mir ein Kollege etwas, was mir bis dahin einfach nie aufgefallen ist: Es gibt dafür einen Pfeil in der Anzeige. In meiner kleinen Stichprobe (mehrere Hersteller, mehrere Länder, aus denen die Wagen stammten) war der auch immer da. So klein, so praktisch.

Und wo ist dieser Pfeil nun? Schaut mal auf die Tankanzeige – da ist eine kleine Tanksäule und rechts bzw. links daneben ein kleiner Pfeil / Dreieck.

Pfeil für Tank

 

Habe das nur ich nicht gewusst…?

 

 

Tunnel in die Freiheit

Ausgehend vom letzten Eintrag für meine Hotel/Camping-WLAN-Konfiguration kam auch eine Frage zum Thema „wie tunnele ich meine Netzverkehr durch die Firewall?“. Und da verwende ich seit Jahren ein schon so ziemlich überall erfolgreich verwendetes Setup, welches ich nun mal beschreiben möchte.

Vorab: Etwas technisch Know-how sollte vorhanden sein, denn die verwendeten Technologien sind nicht wirklich immer einfaches Plug&Play.

Die Grundidee ist wie folgt: Auf einem Server (Rootserver oder vServer) installieren wir SSH und einen Proxy und schicken den Datenverkehr durch den SSH-Zugang zum Proxy, der es dann weiter ins Internet schickt. Der Gag dabei: SSH läuft nicht (bzw. nicht nur) auf Port 22, sondern auf Port 443, welcher normalerweise für HTTPS verwendet wird und daher von Firewalls nahezu immer erreichbar ist.

Benötigte Software: Wir benötigen einer Rootserver (auch als vServer klappt das) mit einem Linux als Betriebssystem (ich verwende Debian – selbstverständlich gingen auch ***BSD und ähnlich), auf welchem SSH und der Proxy-Server Squid installiert werden. Auf dem Client (also dem Rechner, von welchem wir surfen wollen) entweder einen SSH-Client oder aber Putty (was unter Windows meist die Regel sein dürfte).

Setup von SSH: ich gehe mal davon aus, dass der Server, welchen Ihr mietet, eh schon per SSH erreichbar ist. Das ergänzen wir nun um den Port 443, indem wir in /etc/ssh/sshd_config die Einträge für die Ports, damit dann 22 und 443 verwendet werden:

Port 443
Port 22

Nach einem Neustart von SSH sollte dieses nun auch über den Port 443 erreichbar sein (parallel darf dann natürlich nicht z.B. ein Webserver diesen Port nutzen wollen).

Proxy-Server: Als Proxy verwende ich (mehr oder weniger aus Gewohnheit) Squid. Erstmal fast im Standard installiert, allerdings mit diesem einen speziellen Eintrag:

http_port 127.0.0.1:3128

Soll heißen: ich will nicht, dass irgendwer von außerhalb meine Proxy missbraucht, daher lasse ich ihn nur auf der internen Netzwerkadresse laufen (127.0.0.1 ist das Loopback-Device)

Der Tunnel: Eine tolle Funkionen von SSH: Man kann beliebige Adressen/Ports hindurchschleifen. In diesem Beispiel machen wird folgendes: Wir melden uns vom Client mittels SSH am Server an und dabei wird der Port 3128 (der Proxy) auf dem Client als Port 13128 zur Verfügung gestellt. Das heißt dann, dass man im Webbrowser als Proxy den Server 127.0.0.1 (also lokal) mit dem Port 13128 einstellt und schon ist man über dem Weg draußen.

ssh meinNutzer@meinServer.de -p 443 -L 13128:127.0.0.1:3128

Allgemeine Hinweise: Ein eigener Server im Internet ist ein beliebte Angriffsquelle für Hacker, daher würde ich immer SSH so einstellen, dass es nur mit Public/Private-Key läuft und nicht per Passwort. Und außerdem sollte man den Rechner immer auf dem aktuellsten Stand haben und eine Idee haben, was das Linux eigentlich so tut.

Nette Ergänzungen: Im Squid kann man z. B. mittels „acl Safe_ports port 12345“ diesen für weitere Ports verwenden und so z. B. Chat-Clients über diesen laufen lassen.

Und man kann im SSH-Aufruf auch mehrere Weiterleitungen einstellen und so z. B. mittels

ssh meinNutzer@meinServer.de -p 443 -L 13128:127.0.0.1:3128 -L 13993:imap.gmail.com:993

den Zugriff auf seine Gmail-Mails auch durch die Firewall machen (und z. B. im Thuderbird dann als IMAP-Server 127.0.0.1 auf dem Port 13993 einstellen

Eins noch: Ich habe absichtlich keine Schritt-für-Schritt-Anleitungen für z. B. die Installation von Squid hier mit aufgeführt – wenn Ihr das nicht hinbekommt (ggf. mit Hilfe von Goolge), dann rate ich Euch dringend davon ab, einen eigenen Server zu betreiben…

Camping- / WLAN- / Hotel-Internet teilen

Das hier wird ein noch wachsender Eintrag rund um mein Setup, welches ich nutzen werde, um z.B. auf Campingplätzen deren WLAN auf alle unsere Geräte zu verteilen ohne dass diese neu konfiguriert werden sollen.

Im Wohnwagen soll es konstant immer ein WLAN geben („MEIN_WLAN“), welches von allen Clients verwendet wird.  Für den Aufbau verwende ich einen Raspberry Pi (mit Raspian bzw. Raspbmc), eine kleine WLAN-Karte, ein simples CAT 5 Kabel und eine ausgemusterte Speedport 500V (welche ich im Keller gefunden habe).

Schritt 1: Raspberry Pi Grundinstallation (WLAN noch nicht gesteckt – Internet per LAN-Kabel)

Installation geht wirklich leicht von der Hand – System herunterladen und den Anweisungen dort folgen

Schritt 2: Wichtige Anpassungen

Ziemlich genervt musste ich erstmal mit der englischen Tastaturbelegung in der Konsole kämpfen – diese stellt man wie auf dieser Seite beschrieben erstmal auf deutsch um – dann klappt es auch mit z,y,-,…

Schritt 3: Raspberry Pi wird Access Point

Im Gegensatz zum häufigeren Fall wollen wir, dass unser Raspberry Pi ein eigenes WLAN (eben das „MEIN_WLAN“) aufmacht – dazu folge man einfach dieser Anleitung. Wenn alles klappt, müsste danach auf Euren Rechnern ein „MEIN_WLAN“ als Verbindung verfügbar sein – und wenn der Raspberry Pi noch am WLAN hängt (was er sollte), dann kann man über das selbst erstellte WLAN schon surfen.

Schritt 4: (optional) Einen eigenen Nameserver aufsetzen

Ich will in meinem internen Netz alle Rechner immer unter einem Namen ansprechen – daher habe ich gemäß dieser Anleitung PowerDNS installiert (bisher hatte ich immer Bind im Einsatz – aber das große Monster wollte ich dann doch nicht auf dem kleinen Pi haben).

Schritt 5: Schluss mit dem vorhandenen LAN

Der Raspberry Pi ist soweit eigentlich fertig – nun verheb ich auf der LAN-Schnittstelle via /etc/network/interfaces eine feste IP-Adresse in einem anderen Netzwerk als jenes des WLAN (sagen wir WLAN hat 192.168.1.xxx, so setze ich eth0 auf  192.168.2.1

Dann stelle ich noch ein, dass alle Verbindungen, welche nicht im WLAN laufen sollen, über eth0 und dort über die Adresse 192.168.2.2 gehen sollen (nein, Ihr habt nichts verpasst – das ist eine noch nicht belegte…)

route add 192.168.2.0 eth0
route add default gw 192.168.2.2

Schritt 6: Die Speedport 500V wird zum Bitswitcher

Wir wollen, dass unser WLAN-Router nicht mehr ein WLAN aufspannt, sondern als Client an einem solchen teilnimmt. Das geht wohl ganz gut mit DD-WRT (dafür hatte ich die Hardware nicht da), auch Fritz!Boxen kriegt man wohl leicht dazu – ich aber hatte wie gesagt im Keller „nur“ die olle Speedport 500V gefunden.

Deren Telekom-Firmware kann den Client-Mode (natürlich) nicht, es gibt aber eine alternative Firmware namens „Bitswitcher“ – und die habe ich darauf installiert.

Schritt 7: Das LAN der Speedport umstellen

Wenn man sich über das Default-WLAN von Bitswitcher dort anmeldet, kann man dort das LAN umstellen – wir nehmen dort eine feste IP (192.186.2.2 – ja, die von vorhin) und wenn wir alles richtig gemacht haben (manchmal mag Bitswitcher einen Reboot), dann sollten wir vom Raspberry Pi (den wir ja im WLAN „MEIN_WLAN“ erreichen können) bei gestecktem Kabel von LAN zu LAN ein ping gehen.

Schritt 8: Speedport mit einem fremden WLAN verbinden

Das Verbinden mit einem fremden WLAN benötigt insgesamt drei Einstellungen – auch hier hilft manchmal neben dem „Save & Run“ ein beherzter Neustart via Aus-Schalter weiter):

  1. Unter „Wireless LAN“ -> „Basic Settings“ tragen wir als Mode „Client“ ein – und die Daten des zu verbundenen WLANs (Name, Kanal) und stellen auf „separate“ und schalten das DHCP dort an
  2. Unter „Wireless LAN“ -> „Security Settings“ tragen wir die Art der Verschlüsselung und das Passwort ein
  3. Und das ist wichtig – muss aber nur einmal gemacht werden: Unter „Firewall“ schalten wir im Bereich „General Settings“ das WAN Interface auf „WLAN“ (damit dort die Weiterleitung auch klappt.

Erste Zusammenfassung: mit dem Setup schalte ich nun beide Geräte ein, rufe die IP-Adresse meines Speedport auf (bzw. habe ich im DNS einen entsprechenden DNS hinterlegt) und trage wie in Punkt 8 beschrieben die Daten des WLAN des Hotels, Campingplatzes usw. ein und alle Geräte sind glücklich.

Dieser Eintrag wurde in solch einer Konfiguration geschrieben :)

UPDATE: Auch wenn all das da oben funktioniert wie beschrieben – mittlerweile nutze ich einen TP-Link TL-MR-3040 – dieser bietet mit der aktuellsten Firma im sogenannten WISP-Modus faktisch all das Out of the Box :)

Was hat die Steinlaus mit Podcasts und der Wikipedia zu tun…?

Die Idee, an einem Podcast nicht nur als Gast (Luftpost / ABS-Radio) teilzunehmen, sondern diesen wirklich selber aktiv zu betreiben, ist schon ein paar Tage älter bei mir gewesen. Nur über welches Thema sollte es gehen? Noch ein Tech- oder gar Mac-Podcast? Nein, da gibt es genug von und ich komme ja selber kaum noch hinterher, die alle zu hören. Oder was zu meinen Hobbys? Ach ja, sind wir ja schon wieder bei Computern… Oder aber Hundesport (Agility)? Aber dazu bin ich im ganzen Drumherum zu wenig engagiert – da gibt es Einige, die viel mehr zu erzählen hätten.

Am Ende bin ich begeistert über Podcastideen gestolpert, fand dort die Idee, über zufällige Artikel der Wikipedia zu reden echt spannend (also so was wie ein Wissenspodcast – mit zufälligen Themen, von denen man im Zweifel vorher selber keinen blassen Schimmer hat :)). Auch auf Podcastideen fanden sich zwei Mitstreiter und nach langem Grübeln über den Namen und die Struktur ist er nun seit Dezember 2013 da: Der Podcast namens „Freunde der Steinlaus“.

Die Folge Null mit Fokus auf das Thema des Podcasts (Wikipedia an sich, die Steinlaus et al) hatte noch eine gehörige Portion Längen und und Chaos – aber hey, es ist eine Nullnummer.

Aber schon in der ersten Folge mit den Themen ÖDBOF, Hitlerjugend, der Plutonium-Affäre und der Halle 54 nahmen wir Fahrt auf und mit der Stand heute zweiten Folge zu Kängurus, einer Pyramide, leckeren Dingen in Essen und Trinken und das Hippokranet beginnen sich erste Strukturen zu festigen und ich habe sowohl beim Erstellen als auch selber beim Hören Spaß – somit für mich ja schon fast Ziel erreicht.

Und nun steigt die Spannung, ob sich unser kleiner Podcast auch eine nette, kleine Hörergemeinde aufbauen kann. Wenn ich mir so die Download seit der Veröffentlichung der ersten Folge so anschaue besteht da Grund zur Hoffnung – realistisch sind wir jetzt mit den „echten Folgen“ seit nicht mal zwei Wochen draußen :)

Also, wenn Ihr drei Kerle erleben wollt, die vom Zufallsgenerator getrieben werden, über Dinge wie „was ist ein Ute“ über „wie wurde im ersten Weltkrieg der Bodensee bewacht – und in welchen Uniformen“ bis hin zum Geschmack von Kängurus zu sprechen – hört mal rein und hinterlasst den einen oder anderen Kommentar.

Ach ja, wegen der Überschrift zu Steinlaus und Wikipedia – das erklären wir in der Nullnummer :)

(Für mich ist das ganze noch ein dankbare Möglichkeit, das Sprechen über Nicht-Fachthemen zu trainieren)

Hundespaziergang 2.0

Wie viele von Euch wissen, springen in unserem Haus drei Hunde um uns herum und dazu kommt noch eine Tochter. Die Hunde werden jeden Tag draußen durch die Westlichen Wälder (die Stauden) bugsiert und haben ihren Spaß.

Man selber kennt irgendwann alle Wege und wie gut man eine 11jährige Tochter zum Spazieren gehen motivieren kann, könnt Ihr Euch wahrscheinlich gut vorstellen…

Aber es gibt eine Lösung für alles: die Hunde kommen auf immer neuen Wegen raus, man selbst findest tolle, neue Ecken und auch das Kind läuft begeistert vorne voran. Wie das geht? Eigentlich ganz einfach: man verbinde das Hobby Hund mit einem neuen Hobby – dem Geocaching. Kurz gesagt: Schnitzeljagd / Schatzsuche immer und überall.

Etwas länger: Es gibt mittlerweile über 2 Millionen versteckte „Gegenstände“ weltweit – Ihr seid wahrscheinlich schon an vielen direkt vorbeigegangen. Diese werden auf der Seite www.geocaching.com* von den Teilnehmern mit Ihren GPS-Koordinaten hinterlegt, nachdem man diese versteckt hat (jeder kann also welche verstecken). Jeder Fund (der „Cache“) beinhaltet immer ein Logbuch, wo man sich als Finder eintragen kann (und nur dann darf man auf der Webseite seinen Status auf „Gefunden“ setzen). Da bricht dann schnell der Jagdinstinkt durch – gerade auch beim Kind.

Man braucht nicht mehr als ein GPS-Gerät- oder in der heutigen Zeit: ein Smartphone (ob mit oder ohne Apfel) und schon kann es losgehen. Unsere Spaziergänge tendieren jetzt dazu, immer mehrere Stunden zu dauern :)

Ein paar erste, kleine Details noch:

Jeder Cache hat auf der Webseite zwei hinterlegte Werte von 1-5:

  • die „Schwierigkeit“ sagt aus, wie schwer er zu finden ist,
  • das „Gelände“, wie schwer er dann zu erreichen ist (von „einmal bücken“ bis „Kletterausrüstung nötig“).

 

Es gibt drei Arten:

  • den Traditionelle (man gehe zu den genannten Koordinaten und da ist er auch),
  • den Multi (mehrere hintereinander) und
  • den Mystery (erst ein Rätsel lösen).

 

Also, habt Ihr einen Hund und ein Smartphone? Dann registriert Euch mal auf http://www.geocaching.com (wir sind dort SaskiaLinWal und SvenWal) und schaut auf der Karte, wo und wie viele um Euch herum liegen. Ihr solltet mit den Tradis beginnen, der Rest kommt dann schon.

Mehr Infos direkt auf der Homepage und in einer aktuellen Ausgabe des CRE-Podcasts.

* es gibt noch andere, aber das ist mit Abstand die größte

Wo soll das nur hinführen…?

Alle, die mich kennen, wissen, dass ich, was Computer betrifft, so ziemlich alles ausprobieren muss, was nicht bei drei auf den Bäumen ist. Und auch wenn seit nunmehr mehr als 10 Jahren meine Haupt-Privatrechner immer Macs waren (angefangen mit einem iMac G4 – was ein tolles Teil), so werden immer auch die anderen Systeme intensiv im Auge behalten. So probiere ich immer mal wieder das eine oder andere Linux (welches ich als Server schätze – auf dem Desktop weniger) und auch immer aktiv alle Windows-Versionen, für welche ich ja sogar aktiv entwickle.

Und ich will auch wirklich, dass Microsoft nicht völlig abfällt – ich mag den Laden zwar nicht, aber Apple braucht gefälligst Konkurrenz (sonst werden die überheblich wie damals, als Steve gehen musste oder auch heute noch (in Maßen – Dank Android) bei iOS)). Daher war ich sehr positiv überrascht, dass man im Hause so mutig war und mit Metro / Modern UI / wie auch immer einen anderen und auf den ersten Blick auch guten Weg ging.

Spulen wir etwas vorwärts zum heutigen Datum (November 2013). Auf meinem Notebook läuft (neben dem „guten, alten“ Windows 7) auf einer eigenen SSD Windows 8.1 (und vorher schon 8). Ich habe mich auch aktiv zur Nutzung des Systems gezwungen und alle Entwicklung auf dieses SSD verlagert und die Brücken abgebrochen zum alten 7er. Somit habe ich also viel Alltagserfahrung gesammelt – und diese lässt sich in drei Buchstaben zusammenfassen:

WTF?

Ja, What The Fuck ist denke ich für mich die treffendste Beschreibung, wie sich Windows 8.1 anfühlt. Man hat also den Start-Button unten links wieder zurück gebracht – der exakt das gleiche tut, was die untere linke Ecke in 8.0 auch schon machte – er öffnet die Kacheloberfläche. Dafür wurde aber nach der Installation erstmal genervt mit „wischen sie von a nach b, um c zu erreichen“ – letztlich nur die sichtbare Konsequenz, dass dieses System völlig umintuitiv ist.

Zwei Dinge werfe ich 8.1 ganz besonders vor:

  1. Die gute Idee der Kacheln (dabei bleibe ich) zerstört durch ein völliges Chaos in der Bedienung derselben – mit einem Touchpanel nicht toll, mit einer Maus eine reine Katastrophe.
  2. Das noch viel, viel größere Chaos, weil man den alten Desktop danebengepackt hat und damit herausgefordert hat, dass die Nutzer ständig zwischen der alten und neuen Welt springen und völlig die Übersicht verlieren

In der Konsequenz hört man viel (und ich habe mich nun nach langem Zögern auch dazu entschieden), dass man die Kacheln links liegen lässt und Windows 8.1 einfach als gelungenes Update von Windows 7 ansieht (denn rein technisch hat Microsoft da schon einige Schmankerl eingebaut).

In meinem persönlichen Fall klappt aber nicht mal das mehr – ich hatte es erst auf einer normalen Platte gehabt – fand den Vergleich mit dem Mac (Fusion Drive) und Windows 7 (SSD) völlig unfair. Also wurde extra eine SSD angeschafft und das System ganz sauber und frisch darauf installiert – nur mit den neuesten Treibern vom Hersteller und keine Tweaks oder sonstwas gemacht. Nur die zum entwickeln nötigen Tools (Visual Studio, Git, NSIS, …) und der tägliche Bedarf (Thunderbird, Pidgin, Chapper, …) wurden installiert.

Es handelt sich nun also um mein zentrales Entwicklungssystem – und dafür habe ich i. d. R. immer nur mal zwischendurch Zeit (nach einem langen Arbeitstag im Hotel zum Beispiel). Und dazu komme ich im Moment nun nun noch seltener als eh schon – weil dieses verf**** Windows 8.1 im Schnitt bei jedem zweiten Start nach ein paar Minuten anfängt, mit sich selber zu spielen und dann mehrere Systemdienste in einen Wettkampf gehen, wer am besten die CPU auslasten kann. Der Rechner ist dann auf 100% (und das ewig) und man kann nichts machen.

Nun kenne ich mich mit Rechnern aus – also geschaut, ob ich eine nachvollziehbare Lösung finde (außer der klassischen Neuinstallation – welche dieses System ja faktisch eh ist) und werde erschlagen davon, wie viele andere gleichartige Probleme aus den unterschiedlichsten Gründen haben – da scheint also grundsätzlich was im Argen zu liegen.

Mein Windows 8.1 ist der reine Zeitvernichter – heute zum Beispiel hätte ich eigentlich eine Stunde in Menere investieren wollen – stattdessen drehte die Kiste wieder durch und ich suchte wieder nach Lösungen (ohne Erfolg).

Warum ich mir das antue? Diese Frage stelle ich mir zunehmend intensiver – vielleicht sollte ich es sein lassen und nicht mehr zurückschauen (wenn da nicht der Arbeitsrechner wäre :()

Ender’s Game – Review des Films

Gestern war ich im Kino und habe mir Ender’s Game – Das große Spiel angeschaut.

Dazu ein paar Worte vorab: Ender’s Game ist ein Buch aus den 80ern, welches ich damals auch gelesen haben – und das einige Male, weil mich dessen tiefere Geschichte wirklich reingezogen hat. Neben Otherland und Hyperion/Endymion war und ist es mein absolutes Lieblingsbuch.

Die Handlung kurz umrissen, ohne zu viel zu verraten: Es geht um einen Jungen namens Ender, welcher außergewöhnliches Talent im Bereich der Taktik besitzt. Die Erde wurde vor 50 Jahren von einer außerirdischen Rasse (im Buch Krabbler, im Film Formiacs) überfallen und entging nur sehr knapp der totalen Niederlage.

Nun bereitet man sich intensiv vor und hat in einer Raumstation ein Ausbildungscamp für kommende militärische Führungskräfte erbaut, welche mit Unterricht und einem „Spiel“ ausgebildet werden. Dabei handelt es sich um Kinder / Jugendliche – weit weg von erwachsen.

Nun zum Film:

Was die Bildsprache und das Tempo des Films angeht: Erste Sahne. Die Raumstation, das Taktik“spiel“ in der Schwerelosigkeit sowie erst recht die Raumschlachten sind auch ohne 3D der Hammer und alleine schon einen Besuch im Kino wert!

Die beiden Hauptcharaktere Ender und Oberst Graff (leitet die Ausbildung – von niemand geringerem als Harrison Ford gespielt) machen Ihre Sache in meinen Augen hervorragend.

Nun kommen wir zum Aber: wenn man das Buch wie ich verschlungen hat (ja ja, nie mit dem Buch vergleichen), dann stört einen (mich) ein Aspekt: Die Hast, mit welcher durch die an sich deutlich komplexere Geschichte gegangen wird und welcher der mir persönlich wichtigste Aspekt zu einem Gutteil zum Opfer fällt.

Dieser wichtigste Aspekt ist die langsame Entwicklung von Ender und zeigt sich im Film im Gegensatz zum Buch mit einer geringen Zahl der gezeigten Spiele, dem sehr kurzen Ablauf des Computerspiels, welches er auf seinem Pad spielt (im Film nach wenigen Minuten schon eine wesentliche Auflösung, im Buch ein langer Prozess) und auch in der wenig (Schwester) bis nahezu gar nicht (Bruder) dargestellten familiären Situation von Ender.

Das alles war es, was mich damals als Kind so gefesselt hat – ein Außenseiter (er kann als schmächtiger Streber durchgehen) und wie er damit nicht nur umgeht, sondern seine Stärke daraus bezieht.

Ein Aspekt wird sogar völlig ausgelassen – die Geschwister tummeln sich in etwas, was heute dem Internet entspricht und nutzen dies sehr weitgehend für mehr als 08/15 (hier könnte ich natürlich, da es im Film ja nicht vorkommt, verraten, was es ist – aber vielleicht wollt Ihr es ja lesen). Wir reden von einem Buch aus 1985 mit Wurzeln in 1977, als das Internet faktisch unbekannt und das World Wide Web noch nichtmal geboren war. Schade, aber das hätte den Zeitrahmen des Films wahrscheinlich gesprengt.

Zusammenfassend: auf jeden Fall reingehen! Filmisch sehr gut gemachter Film, starke Darsteller und die grundsätzliche Entwicklung von Ender kommt trotz der Verkürzung noch gut durch.

SimCity 5 auf dem Mac – eine Katastrophe

Als SimCity 5 für Windows rauskam, hat sich EA / Origin nicht gerade mit Ruhm bekleckert (instabil, Online-Zwang, …) und sich viele Fans vergrault.

Ich als Mac-Nutzer schaute mir das an, musste aber eh noch eine ganze Weile warten, bis man sich dort erbarmte, eine Mac-Version zur Verfügung zu stellen.

Als es dann soweit war, habe ich direkt zugegriffen und im Online-Store die Deluxe-Edition gekauft und direkt mit Paypal bezahlt. Im Gegensatz zu einigen anderen kriegte ich dann relativ unverzüglich meinen Download-Link und konnte Origin runterladen. Origin? Hatte ich nicht SimCity gekauft? Nun, bei EA zwingt man uns dazu, mittels deren Software Origin das Spiel selber zu laden.

Also Origin runtergeladen, installiert (erzählte einem dann noch irgendwas von „brauche mal eben noch Admin-Rechte, um hier was tief zu verankern“, und dann: nichts, blieb einfach hängen.

Es begann eine Rundreise durch „startet nicht“, „startet, geht aber gleich wieder aus“, „startet, in der erscheinenden Oberfläche lässt sich nichts anklicken“, „startet, Oberfläche ist klickbar, aber Tastatureingaben werden ignoriert“ bis hin zu einem hängenbleibendem Reboot (auf einem Mac…!). Zwischen all den Versuchen war immer ein „Origin aus dem Applications-Ordner löschen und neu reinlegen“, da nach einem Fehlversuch immer genau gar nichts mehr passierte beim nächsten Startversuch.

Lange Rede, kurzer Sinn: ich hatte die Schnauze voll, ich wollte mich eigentlich vergnügen und hatte bis zu dem Zeitpunkt schon rund drei Stunden mit dem Origin-Tool verbracht – SimCity selber also bisher noch nicht mal ansatzweise gesehen. Also Rückabwicklung des Kaufs (Widerrufsrecht) in die Wege leiten. Nur wie? In einer Endlosschleife kämpfte ich mich durch die grottenschlechten Support-Seiten, für die dieser Punkt natürlich nicht existiert, aber eben auch keinerlei schriftlich Kontaktmöglichkeit gegeben ist.

Mittlerweile schon echt geladen, schickte ich den Rücktritt an alle mit einfallenden Adressen (info@, support@, Antwort an die Rechnungs-Email) – bekam bei 2/3 davon ein „auf der Adresse nehmen wir keine Mails an“, der Rest schien zugestellt worden zu sein (es war Wochenende, Hotline ging daher nicht).

Nachdem (fast schon erwartet) keinerlei Reaktion kam, fand ich eine Hotline-Nummer und trug mein Leid dort vor. Eine Rückabwicklung wurde zugesagt – es geschah wieder nichts…

Ein paar Tage später nochmal (mehrfach) zur Hotline telefoniert, mehrmals die Rückgabe initiiert bekam ich erstmals jemanden, der wusste, was er tat. Stornierung aufgenommen, ginge nun alles seinen Weg.

Ein paar Minuten später kam eine automatisierte EMail mit einem Link, mittels welchen ich die Rückgabebedingungen bestätigen sollte. Der Link führte auf die Origin Startseite (also die Url hatte nette Parameter, aber das half nichts, oben auf der Seite steht immerhin „Erlebe den neuen Origin Webstore. Für mögliche kleine Pannen bitten wir um Verständnis.“) – also nochmal gescheitert.

Wieder durch die Hotline durch, den Kollegen dort insg. 20 Minuten (inklusive mehrfache Wartemusik) dran und er meinte, alles wäre nun geklärt und die Erstattung käme innerhalb einer Woche. Das habe ich sogar schriftlich.

Die Woche ist am letzten Freitag um gewesen – ratet mal, auf wessen Paypal-Konto noch immer kein Geld ist…

Hänge also gerade wieder in der Wartemusik…

[UPDATE 1]

Die Hotline konnte nicht nachvollziehen, warum es nicht geklappt hat (yeah), da nun aber die 14 Tage Widerrufsrecht rum sind, kann man es nicht mehr einfach stornieren (wäre das vorher technisch gegangen…?). Manuelle Aufnahme meiner Kontoverbindung und nun soll es 14 Tage (!) dauern, bis das bearbeitet wird plus (!) die Zeit von bis zu fünf Tagen, bis die Buchung dann wirklich erfolgt. Kundenservice von EA / Origin – noch Fragen…?

E-Mail Made in Germany und der Standard-Mailserver von Debian (Exim)

Na wunderbar, da haben also unsere großen drei E-Mail-Provider GMX, web.de und Telekom endlich mal den Konfigurationsschalter gefunden, um die Verbindung (und auch nur die, nicht etwa die Mails selber…) der Mailserver zu verschlüsseln – und dann funktioniert das Ganze wohl bei vielen Standard-Debian-Mailservern nicht.

Der Grund scheint zu sein, dass Debian wegen der Lizenz (GPL) nicht OpenSSL sondern GnuTLS einsetzt – und dann bekommt man als Betreiber eines solchen Mailservers dann solche Einträge im Logfile:

 TLS error on connection from mout.gmx.net [212.227.15.15] (gnutls_handshake): A TLS fatal alert has been received.

Für mich als Nutzer mit einem EXIM4 (heavy, gültiges SSL-Zertifikat von StartSSL) war somit der Empfang sämtlicher Mails zumindest von GMX nicht mehr möglich (ich hatte keine Tester für web.de und Telekom zur Hand).

Man findet auch einige Einträge dazu im Netz, welche sich erstmal an diversen Konfiguratuonsänderungen versuchen (insb. in den CIPHER-Einstellungen oder gar die Deaktivierung von STARTTLS bei diesen Mailserver – kann ja auch nicht Sinn der Sache sein), am Ende läuft es darauf hinaus, dass man sich Exim4 den Source besorgt und dann seine eigene Version gelinkt gegen OpenSSL kompiliert – das funktioniert dann auch und ich bekomme wieder alle Mails :)

Also, was darf man in seiner Freude tun?

  1. Sicherstellen, dass man einen deb-src Eintrag in seiner /etc/apt/sources aktiv hat – meiner lautet

    deb-src http://http.debian.net/debian stable main

    Nicht vergessen, ein apt-get update nachzuschieben :)

  2. Der Anleitung unter http://unix.stackexchange.com/questions/85231/how-to-recompile-exim4-daemon-heavy folgen (ggf. müsst Ihr noch das eine oder andere mittels apt-get install nachinstallieren)
    Dabei vor
    dpkg-buildpackage -rfakeroot -us -uc
    in der Datei debian/rules den Eintrag mit OpenSSL aktivieren:

    # If you want to build with OpenSSL instead of GnuTLS, uncomment thisOPENSSL:=1

    # Please note that building exim4-daemon-heavy with OpenSSL is a GPL

    # violation

  3. Die dadurch neu entstandene .deb-Datei installieren:

    dpkg -i exim4-daemon-heavy_4.80-7_amd64.deb

    (oder ähnlich, Versionsnummer und Prozessorarchitektur können natürlich anders sein)

  4. Sollte eigentlich sofort gehen, wenn Ihr nicht kreative Konfigurationseinträge bzgl. SSL in Eurer Exim4-Config habt.

Danke Made in Germany :(

Volkswagen RCD 510 – ein Erfahrungsbericht

Es begab sich im Herbst 2011, dass die Bestellung eines neuen Wagens aus dem Volkswagen-Konzern angegangen werden konnte. Ausgestattet mit dem einen oder anderen Euro legte ich viel Wert auf den Innenraum, da dies ja der Platz ist, in dem ich einen nicht unerheblichen Teil meiner Arbeitszeit (ca. 75.000km im Jahr) verbringe.

Also wurde für den Komfort alles gekauft, was in das Budget passte, und das war eben auch das RCD 510 von Volkswagen inklusive Rückfahrkamera und allen, was es unter dem Stichwort „Freisprechfunktion“ so gab. Zusätzlich wurde noch das teurere 10-Boxen-System dazugekauft – man wollte es ja auch genießen.

Was bekommt man den nun eigentlich mit einem RCD 510?

  • großer Touchscreen
  • Radio
  • CD-Wechsler
  • SD-Kartenslot
  • Aux-In
  • Anschlussplatz für Multimedia (man legt dann nochmal ein paar Euro drauf für das iPhone-Adapter-Kabel)
  • Audio über Bluetooh (A2DP)
  • Telefon-Freisprechfunktion via Bluetooth
  • Bedienung am Lenkrad (ja ja, das kostet natürlich auch extra – deutsches Auto halt)

Falls Ihr Navi vermisst: das ist im RNS mit drin – aber statt dem „tollen“ VW-Navis nehme ich doch sehr viel lieber mein iPhone mit TomTom – viel günstiger und (das wage ich bei meiner Fahrleistung beurteilen zu können) um Größenordnungen besser.

Es hätte also alle so schön sein können – aber nach nun gut einem Jahr (die Lieferzeiten des Wagens waren ziemlich hoch) und aktuell knapp 89.000km ist es Zeit für ein Fazit:

  • großer Touchscreen
    Ich mag von den modernen kapazitiven Displays wie beim iPhone verwöhnt sein – aber gerne tippe ich da nicht drauf, da die Erfolgswahrscheinlichkeit bei vielleicht 80% liegt
  • Radio
    Das tut tatsächlich, was es soll und das gut :)
  • CD-Wechsler
    Auch der tut das, was er soll. Aber mal ehrlich, wie oft höre ich denn noch CD…
  • SD-Kartenslot
    Ein Haufen Elektronikschrott – wenn man nicht die richtige SD-Karten mit den richtigen Dateien im richtigen Format trifft, dann geht er nicht – tatsächliche Nutzung daher bei mir null (war aber auch nur so ein „ist halt dabei“ Ding)
  • Aux-In
    Keine Ahnung, nie benutzt
  • Multimedia-Interface für iPhone (erst iPhone 4, nun mittels Apple-Adapter iPhone 5)
    Das ist sicherlich das Herzstück aus meiner Sicht – bei den Fahrleistungen will man Hörbücher, Podcasts und Musik haben, um nicht vor Langeweile zu sterben. Um so schlimmer: auch das ist ein echter Haufen Elektronikschrott!
    Die Auswahl von Musik über den Touchscreen? Da bin ich schon dreimal gegen einen Baum gefahren, bevor ich vielleicht das richtige Stück gefunden habe.
    Die Darstellung auf dem Bildschirm: Titel von Kapiteln erscheinen nicht, Wechsel von Stücken werden bei Musik manchmal, bei Podcasts und Hörbücher konsequent nie erkannt – Display bleibt munter beim zuerst angeschalteten hängen und zeigt halt Restzeit 0:00 an
    Da das iPhone ja als Navi benutzt wird, braucht es Ladestrom – beim iPhone 4 ging es mit Ach und Krach, dass mehr Strom reinkam als rausging, beim iPhone 5 entlädt sich das Telefon trotzdem und sogar recht schnell
    Aus all diesen Gründen hängt das iPhone nun an einem billigen Zigaretten-Anzünder-USB-Dingens. Damit fällt natürlich der ganze Multimedia-Teil weg – wird also faktisch nicht mehr genutzt (hurra, und das bei den unverschämten Gesamtkosten) und der Ton wird mittels Bluetooth übertragen
  • Audio über Bluetooth
    Hier geht die Kapitelansicht manchmal (tendenziell eher nicht), Wechsel von Dateien werden ebenso manchmal erkannt.
    Da ich ja nun das iPhone über den Zigarettenanzünder lade, ist dies mein Anschluss, den ich täglich nutzer.
    Dummerweise ist der nun wieder zu blöd, um die Restzeit von irgendwas richtig darzustellen (egal was) – da läuft die Abspielzeit nämlich immer einfach doppelt so schnell und nach dem halben Stück ist die Anzeige bei Restdauer null und verweilt da, bis die Realität da auch ankommt.
    Also eigentlich auch Schrott, aber immerhin kommt das aus den Boxen, was ich hören will, wenn ich es über das iPhone-Display so auswähle
  • Telefon-Freisprechfunktion via Bluetooth
    Tatsächlich funktioniert die im Allgemeinen recht gut und zuverlässig, auch angenehm ist die Bedienung am Lenkrad und dem kleinen Bildschirm in der Tachoeinheit (ja, das kostete natürlich auch alles extra…).
    Wenn es nur nicht 2-3 Wochen einmal böse abstürzen würde und nur ein Reboot (Auto anhalten, aus, 10 Sekunden warten, Auto wieder an) es wieder zum Leben bringen würde.
    Gibt es in diversen Geschmacksrichtungen – am häufigsten die unauffällige Variante: alles sieht gut aus, dann kommt ein Anruf und keine Taste zum Abnehmen oder ähnlich geht mehr. Hat mich tatsächlich schon in echte Probleme gebracht, weil ich einen Anruf nicht annehmen konnte, welcher sich kurz darauf (nach dem Reboot auf dem Parkplatz) als bereits stark verärgerter Kunden herausstellte, welcher niemanden erreichen konnte, als sein System – wie sag ich es – sehr suboptimal lief. Erzählt dem dann mal: ja, habe Deinen Anruf gesehen, mein Auto wollte aber nicht mit dir reden…
  • Bedienung am Lenkrad
    An sich super – also insb. der Teil mit der Lautstärke und dem Telefon. Musik und Co. fernsteuern macht aber noch weinger Spaß als am Touchscreen und die Sprachsteuerung – ach, da Schweigen wir lieber drüber…

Conclusio:

Sorry, aber dieses Teil (welches in Summe einen netten vierstelligen Betrag mit allen seinen weiteren Extras gekostet hat) ist ein Quell täglichen Ärgernisses und man ist froh, wenn es das tut, was es gerade soll. Sonderwünsche der Tochter nach „spiel mal xyz“ ignoriert man mittlerweile mit dem Hinweis, dass das einfach gerade nicht ginge.

Kann gut sein, dass man als Gelegenheitsnutzer über vieles Schmunzeln kann – ich kann es mittlerweile nicht mehr :(

Randnotiz: es ist die aktuellste (und auch finale) Softwareversion sowohl im RCD 510 als auch im Multimediasystem installiert.

UPDATE: Die Zeit ist vorangeschritten, der Wagen schon eine Weile Geschichte und wen es interessiert, der kann gerne hier auch lesen, dass es bei anderen Autoherstellern besser funktionieren kann

Ist Fever eine Alternative für Google Reader?

Nun ist also Google Reader am Ende – Google zieht den Stecker zum 1. Juli 2013.

Danke Google, erinnert Ihr Euch nach „Don’t be Evil“? Muss Jahrhunderte her sein…

Wie auch immer – ich selber habe schon vor ein paar Monaten meinen persönlichen Stecker gezogen und habe mir eine Fever-Installation zugelegt, in welcher meine gut 100 Feeds seitdem fein leben und gedeihen.

Ist Fever nun DIE ALTERNATIVE? Nun, hat alles seine Vor- und Nachteile.

Die Nachteile gleich vorab:

  • Es kostet 30 US$
  • Es ist in PHP geschrieben
  • Man braucht einen eigenen Webspace oder dedizierten Server
  • Der Refresh der Feeds muss angestoßen werden und kann eine Weile dauern (bei mir macht das ein Cronjob).

Die Vorteile:

  • Die Daten sind bei mir, kann mir keiner mehr nehmen oder abschalten
  • Gute Weboberfläche
  • API ist vorhanden und wird auch von Reeder für Mac und iOS unterstützt

Also ja, für mich ist es die Lösung, aber bei den negativen Punkten muss jeder wissen, wie er die Punkte abwägt. Ich habe es seit einigen Monaten im Einsatz und kann auf jeden Fall sagen, dass es problemlos funktioniert.

Wenn ich aber mal träumen dürfte, hätte ich gerne folgendes:

  • Serverseitiger Deamon (der dann im Hintergrund schön über die Zeit verteilt die Feeds aktualisiert)
  • Multi-threaded
  • Moderne Web-GUI
  • Volle API für Clients

Wenn das jemand baut – ich bin der erste, der einen Client dafür liefern wird (für Windows – Desktop Google Reader ist von mir und tatsächlich einer der meist genutzten :))

Ganz frisch aufgeschlagen ist Feed Wrangler – aber das ist noch nicht fertig.

Andere Idee: App.net könnte das als API einbauen – das wäre ein Traum (den ich @dalton auch schon vorgeschlagen habe).

Ich muss dann jetzt auf die Autobahn – aber bei Fragen zu Fever oder auch der Google Reader API (die ich besser kenne, als mir lieb ist): @svenwal bei App.net