Hannah B. und die geheime Chemnitzer U-Bahn

Es klingt wie aus einem schlechten amerikanischen, immer wieder aufgewärmten, Märchen und fand doch vor der eigenen Haustür statt: die zehnjähriger Hannah B. Fiel auf dem Heimweg von der Schule zu den berühmten Kletterfelsen einem Eichhörnchen folgend in das plötzlich, zur Grabung des einer zweiten Bazillenröhre, ausgehobene Loch zwischen dem Hauptbahnhof und dem Chemnitzer Stadtteil Sonnenberg.

Und damit ließ sich nicht mehr unter Verschluss halten, was doch bei genauer Beobachtung längst offensichtlich war: In Chemnitz gibt es eine geheime U-Bahn. Träumten wir doch schon immer von einer schnellen Verbindung zwischen Lokomov und Haamit ohne an der Zenti 4000 Rentnern zu begegnen, so ist dieser Traum wahr. Nur irgendwie anders.

Diese stammt aus den finsteren Zeiten des vergangenen Jahrhunderts und obwohl es bis dato keinerlei Beweise gibt, keine Baupläne, keine offiziellen Beschlüsse und keine Fotos, deuten doch es ein paar Indizien auf das versteckte Verkehrsnetz hin. Noch heute ist im CVAG Plan von einem „speziellen Transportsystem“ namens AliTa die Rede, das nicht näher erklärt wird. Auch auf Stadtratsanfragen hin wird bis heute verschwiegen, wo die Linie 2 im ÖPNV System dieser Stadt den fährt. Die geheime U-Bahn war nicht dauerhaft in Betrieb: Sie wurde zuvorderst für den Transport von Waffen zum Bahnhof und ferner für Notfälle und Krisen gebaut. Eine wichtige Rolle spielte sie während des Zweiten Weltkrieges: Die Schächte und Stationen dienten als größter Luftschutzbunker

Ein eingleisiges System sollte die wichtigsten Macht-und Industriezentren der Stadt verbinden und eben hohe Regierungsbeamte jederzeit schnellstmöglich und heimlich aus der Stadt evakuiert werden. Die menschenscheue BabaLu erwog daher schon zu Beginn ihrer ewigen Amtszeit den Ausbau des Systems bis nach Kleinolbersdorf-Altenhain.

Ein Grund, warum die Stadt Chemnitz sich so lange weigerte , die Bazillenröhre bis zum Sonnenberg fortzusetzen und eine zweite Parallelröhre anzulegen, ist die äußerst wahrscheinliche Kreuzung mit der U-Bahn. Diese selbst stammt eben aus einer Zeit, der gewisse und nicht besonders leise Chemnitzer jetzt noch frönen und das passt nun gar nicht zur Wisch-und Weg-Imagekampagne „Chemnitz ist weder grau noch braun“. Dabei ist es an einem Markttag mit Obst-und Gärtnerstäden von oben betrachtet doch einfach nur bunt und grau.

Dieselbe Begründung dürfte für die ewige Unbebauung des Contilochs gelten. Da war man sich ewig unsicher, wie beim Bau die U-Bahn umgangen werden könnte. Erst ein Umbau des Dresdner Platzes samt einer Rest-Wildfläche machte die Bebauung mit dem Technischen Rathaus möglich. Während normaler jeder kleine Spatenstich, auch der in den Sandkästen eines Kindergartens im benachbarten Lutherviertels publiziert wird, wurde den bedeutenden Grabungen der zweiten Fuswegstammstrecke zum jegliche öffentliche Nachricht verweigert. Denn oberstes Gebot: die Existenz der U-Bahn muss unter Verschluss bleiben.

Derweil die eingangs erwähnte Hannah B. glücklicherweise den sichtbaren Notausgang auf der Sonnenstraße fand und ihrer alleinerziehenden Mutter in der immer einspurigen Schlange im Ghetto-Netto-Einkauf aufgeregt davon erzählte, lauschten wir auf und begannen die Grabungen in unseren Erinnerungen.

„Auch du wirst entdecken, dass viele Wahrheiten, an die wir uns klammern, von unserem persönlichen Standpunkt abhängig sind.“ (Obi wan Kenobi, Star Wars).

Ein sehr betagter Herr berichtete uns eins von den geheimen Plänen und seinem Plattenbau über dem Notausgang. Er wusste auch von den Stationen, die wir nun zu rekonstruieren versuchen.

Gemutmaßte Streckenführung:
Sonnenstraßenkarree, mysteriöse Treppe von alten Mann gehört
Contiloch
Hauptbahnhof, die seltsame Zwischengeschossführung des Liftes zum WC und zu Gleis 14 weist ja irgendwie drauf hin.
Limbacher Str/Hartmannwerk-eingestürztes Haus“ Risse in der Wand, Loch in der Grundmauer: (Anwohner der Brückenbaustelle Hartmannstraße in Sicherheit gebracht, März 2010, Die Ursache, die zu den Gebäudeschäden führte, ist nach wie vor unklar.)
Kaßberggewölbe
Geheimer Tresor im Gunzenhauser, falls ihr es zur nächsten Museumsnacht mal hineinschafft, schaut euch genau um.
Endstation Industriemuseum
Mögliche Abzweigungen zum Bahnhof-Mitte oder in Richtung Tietz/Heutige Tiefgarage der Sparkasse denkbar

Wie wird es nun weitergehen. Auch unter Ausschluss der Öffentlichkeit sind Millioneninvestitionen angekündigt. Nicht von dem Dauergünstling und Hoffreund aus Regensburg. Sondern von einem, und das ist so überraschend wie unglaublich clever, jüdisch-iranischen Konsortium. Deren Bedingung ist nun eine bessere Anbindung der Restaurants Shalom und Safran. Darauf wären selbst die größten Aluhüte nicht gekommen.

Mit EF N:M-Beziehungen pflegen

Letztens wieder in einem Projekt mit Entity Framework. Da habe ich wieder eine Erkenntnis erlangt, die ich hier zu teilen versuche.

Situation

Man stelle sich vor, die Software soll eine Tabelle mit einer Detailtabelle (n:m) bearbeiten. Als Beispiel nehmen wir Produkt und Laden. Zur Einnordung: Ein Produkt kann in vielen Läden geführt werden und ein Laden führt viele Produkte. Also klassisch n:m. Das Ganze soll mit Entity Framework umgesetzt werden. Als besondere Schwierigkeit hat Produkt keine Navigationseigenschaft für die Läden. Das mag EF nicht so sehr. Passieren kann das, wenn Produkt z.B. extern zugeliefert wird. Man also keinen Einfluss auf den Code hat.

Umsetzung:

Entitäten

public class Produkt 
{
    public Produkt(Guid id, string name, decimal preis)
    {
        Id = id;
        Name = name;
        Preis = preis;
    }

    public virtual Guid Id { get; set; }

    public virtual string Name { get; set; }

    public virtual decimal Preis { get; set; }
}

public class Laden
{
    public Laden(Guid id, string name)
    {
        Id = id;
        Name = name;
        Produkte = new HashSet<Produkt>();
    }

    public Guid Id { get; }

    public virtual string Name { get; set; }

    public virtual string Inhaber { get; set; }

    public virtual ICollection<Produkt> Produkte { get; set; }
}

Laden verweist auf n Produkte, Produkte aber nicht auf Laden. Klassischerweise würde EF hier eine 1:n-Beziehung per Konvention machen. Daher ist Arbeit im Modelbuilder nötig. Hier also unser Datenkontext:

public class ErpDbContext : DbContext
{

    public DbSet<Produkt> Produkts { get; set; }

    public DbSet<Laden> Ladens { get; set; }

    protected override void OnModelCreating(ModelBuilder builder)
    {
        base.OnModelCreating(builder);

        builder.Entity<Produkt>(b =>
        {
            b.ToTable("Produkts"); 
            b.ConfigureByConvention();
            b.HasKey(x => x.Id);
            b.Property(x => x.Name).HasColumnName(nameof(Produkt.Name)).IsRequired();
            b.Property(x => x.Preis).HasColumnName(nameof(Produkt.Preis)).IsRequired();
        });

        builder.Entity<Laden>(b =>
        {
            b.ToTable("Ladens"); 
            b.ConfigureByConvention();
            b.HasKey(x => x.Id);
            b.Property(x => x.Name).HasColumnName(nameof(Laden.Name)).IsRequired();
            b.Property(x => x.Preis).HasColumnName(nameof(Laden.Inhaber));
            b.HasMany<Produkt>(p => p.Produkte).WithMany("Laden").UsingEntity(j => j.ToTable("Produkt2Laden"));
        });

    }
}

Hier werden die beiden Entitäten eingerichtet und auch die einseitige N:M-Beziehung von Laden auf Produkte. Entity Framework erzeugt nun im Hintergrund die nötige Zwischentabelle, die hier „Produkt2Laden“ genannt wird. Im optimalen Fall hätte man die Navigationsproperties auf beiden Seiten gesetzt, aber hier geht es ja genau darum, es nur einseitig zu haben.

Der Trick ist hier die Anweisung .HasMany(p => p.Produkte).WithMany("Ladens"). Hier wird es als n:m-Beziehung definiert. Normalerweise wäre Ladens eine Eigenschaft von Produkt. Aber die haben wir ja nicht. Bei WithMany() wird daher kein Lambda, sondern eine Zeichenkette verwendet. Mit Stringliteralen kann man wenigstens etwas faken. Es könnte also irgendwas dort stehen. Aus diesem Grund funktioniert auch nicht Alles komplett. Die Verwendung von .Include(), um die Detailtabelle mitzuladen, wird zum Problem. Es geht nicht unter allen Umständen. So z.B. bei diesem Versuch eines Delete:

public async Task DeleteProduktFromLadenAsync(Guid ladenId, Guid produktId)
{
    Laden entitywithdteails = await this.Where(d => d.Id == ladenId).Include(i=>i.Produkte).FirstOrDefaultAsync();
    Produkt detail = entitywithdteails.Teams.FirstOrDefault(z=>z.Id == orgId);
    if( detail!=null )
    {
        entitywithdteails.Teams.Remove(detail);
    }
}

Dieser Versuch funktioniert nicht. Entity Framework gibt einem eine relativ nichtssagende Fehlermeldung. Auch wenn es nicht nötig ist, möchte EF da scheinbar einmal durch alle drei Relationen durch und wieder zurück. Da die „Rückreferenz“ also die ICollection<Produkt> Läden in Produkt fehlt, geht es per default nicht.
Nebenbei (wenn man also weiß, dass eine N:M-Beziehung über eine Zwischentabelle realisiert wird) ist es auch gar nicht nötig, zunächst auch nur eine der beiden Entitäten ([Laden,Produkt]) zu laden, um an den Beziehungen der beiden zu arbeiten. Umso mehr muss man sich um eine effiziente und zuverlässige Bearbeitung der Detailtabellendaten kümmern.

Coden

Ich bin dabei auf folgende beiden Implementierungen der Add/Remove-Operationen gekommen:

public async Task AddProdukteToLaden(Guid ladenId, Guid produktId)
{
    ErpDbContext context = await GetDbContextAsync();
    // fake element attachen und dann in die Collection rein.
    var prod = new Produkt(produktId, null, null);
    var laden = new Laden (ladenId, null, null);
    context.Attach(laden);
    // zeige EF, was passieren soll
    laden.Produkte.Add(prod);
}
public async Task DeleteProduktFromLadenAsync(Guid ladenId, Guid produktId)
{
    var laden = new Laden(ladenId, string.Empty);
    var produkt = new Produkt(produktId, string.Empty, 0);
    // simuliere Zustand davor
    laden.Produkte.Add(produkt);

    var context = await GetDbContextAsync();
    context.Attach(laden);
    // zeige EF, was du willst
    laden.Produkte.Remove(produkt);
}

Der Trick besteht dabei darin, dass Entity Framework die Hauptentitäten gar nicht unbedingt holen muss. Es ist auch nicht wichtig, was in den Feldern steht. Einzig wichtig ist die Id des Datensatzes. Wenn man so eine Enität an den DB-Kontext per .Attach() anfügt, beginnt das Tracking von Entity Framework ab diesem Zeitpunkt. Werden keine anderen Eigenschaften/Felder verändert, hat es auch keine Updates zur Folge. Ergeo wird in diesem Fall nur das Add/Remove von der Detailkollektion mitgeschnitten und somit in die DB persisitiert.

Wir lernen also: Man braucht nicht die ganzen Entitäten zu laden um an Detailkollektionen Änderungen zu machen. Und: context.SaveChanges() nicht vergessen. In meinem Fall gab es ein Framework drumherum, welches alles in eine UnitOfWork einpackt und somit erfolgreiche Operationen automatisch persisitiert sind. Daher fehlt es bei meinen Beispielen.

Erfolgreiche Softwareentwicklung

In diesem Beitrag versuche ich eine lose Auflistung von Punkten zu bieten, die eine Softwareentwicklung erfolgreich machen. Klar ist: Alles kann nichts muss. Also ist es weder so, dass man alles einsetzen muss, noch ist der Erfolg bei Einsatz garantiert.

Kommen wir also zu meinen Empfehlungen. Vermutlich ist kollidieren sogar einige meiner Empfehlungen. Daher gilt: Nehmt Euch raus, was Euch gefällt und setzt es für Euch richtig um. Denn wie so oft im Leben gibt es mehr als nur schwarz und weiß. Viel Spaß.

  • Einsatz eines Versionskontrollsystems (z.B. GIT)
  • Einsatz von Entwicklungszweigen im VCS (Versionskontrollsystems). Branches.
  • UnitTests: Für einzelne Klassen (Basisbausteine) bis hin zu Komponenten (Fertigbauteile) sollten UnitTests eingesetzt werden und bei CI/CD ausgeführt werden. UnitTests von Anfang an schreiben.
  • Für Komponentenübergreifende Teile sollten Modultests gemacht werden. Testszenarien. GUI-Tests, Replay-Tests und bei Testreleases und sowieso bei Releases ausgeführt werden.
  • Für die Gesamtanwendung sollte eine QA-Abteilung mit Menschen sich dran setzen. Die ganze Zeit und speziell zu Releases.
  • Einrichtung einer CI/CD-Pipeline . UnitTests sollten dort ausgeführt werden, besser: Statische Analysen + Code-Style. Als Ergebnis wird ein Installer/Paket oder ein Deployter Container o.ä. erwartet. Ein Tester kann also gleich ran an den Speck!
  • Release-Versionierung. Es kann für Regressionen wichtig sein, auf einen laufenden früheren Stand zurückzugehen. Also: „War das früher auch schon kaputt, oder ist das neu?“. Daher: Setups reproduzierbar machen (Installer, VMs, Container deployments etc.)
  • Release-Management. Es braucht einen Plan, wie man von Release zu Release kommt und wie ältere gepflegt werden und welche Merkmale „gemerged“ werden.
  • Ticketsystem einsetzen. Es ist unmöglich in einem Wust von Code und Information den Überblick zu behalten. Aufgaben müssen verwaltet werden. Tickets immer mit Commits im Versionskontrollsystem verknüpfen (wo sinnvoll).
  • Logging einsetzen. Erfindet das Rad nicht neu! Nutzt Logging-Frameworks. So kann auch auf externe Server geloggt werden etc.
  • Audit-Log. Je nach Anwendung frühzeitig einführen, denn später anflanschen ist doof. Es gibt immer wieder sicherheitsrelevante Dinge zu loggen -> Audit-Log
  • Baut die Anwendung in Schichten auf. Es hat sich bewährt.
  • ORM ist Pflicht. Die Datenschicht ist oft eine Relationale Datenbank. Vermeidet SQL-Zeug. Überbrückt die OO-ER-Lücke mit einem Object Relational Mapper (ORM) wie z.B. Entity Framework!
  • Scheut Euch nicht, auch mal andere Konzepte auszuprobieren. Sie könnten für das zu lösende Problem eine einfachere, zuverlässigere Lösung parat haben. Genannt sei das Aktor-Modell oder Reactive oder Prolog-artige Horn-Klauseln.
  • Baut Internationalisierung (i18n) von Anfang an ein. Das schärft gleich den Sinn, wann etwas lokalisiert dargestellt wird, und wann eine Darstellung kulturinvariant sein soll (bei Persistenz). Außerdem: Später hinzufügen ist wieder mal schlecht und teuer.
  • Baut Barrierefreiheit (accessiblity, a11y) von Beginn an ein. Es ist inzwischen in manchen Ländern oder Bereichen (öffentliche Hand) Pflicht. Aber: Großes Thema, nicht einfach. Screenreader sollten aber an den Text kommen können.
  • Setzt immer Unicode ein. Geht davon aus, dass die Anwender alle gültigen Zeichen der Welt einsetzen wollen und werden. Kodiert Dateien mit UTF-8-BOM.
  • Lernt bei Developer Falsehoods und dem gigantischen Git-Repo über Falsehoods, was so die typischen Fehlannahmen sind und vermeidet sie. Schon gewusst: Vor+ Nachname sind eine Besonderheit, die es hier gibt.
  • Bedenkt Sicherheit im Sinne von Security und setzt Verschlüsselung ein. Nutzt aber immer Bibliotheken und erfindet nichts selbst.
  • Paarprogrammierung. Setzt das XP-Merkmal der Paar-Programmierung ein. Ein Junior kann von einem Senior so viel lernen und Umgekehrt. Oder Wissen aus verschiedenen Programmbereichen verteilen. Vorteil: Es gibt nicht mehr einzelne Koryphäen, da sich Wissen dupliziert. Man lernt Programmiertechniken und Prozesse und die Entwickler sind konzentrierter dabei und machen weniger Fehler, was den „doppelten Aufwand“ mehr als Wett macht.
  • Nutze TDD – Test driven develoment. Nicht überall aber bei Kernkomponenten/Klassen empfohlen. Die dabei entstehenden UnitTests können gleich bleiben und in der CI-Pipeline verwendet werden.
  • Coding-Standard. Entwickelt einen Formatierungsstandard und forciert ihn mit Programmen wie StyleCop.
  • Code-Reviews. Macht z.b. alle 14 Tage ein öffentliches Review. Das ist ein unglaublich gutes Werkzeug, um Fehler zu finden und einander Einblick und Tricks zu vermitteln.
  • Check-In mit Pull-Requets und 4-Augen-Prinzip. Nutzt die Mechanismen, die moderne Entwicklungsplattformen bieten. Bei Git gibt es einen zweistufigen Commit mit Code-Review. Nutzt das und lasst einen Check-In immer von einer anderen Person reviewen. Es hilft immens, Fehler von Beginn an zu vermeiden.
  • Refaktorisieren. Mut zur Refaktorisierung. In der Regel kommt was besseres dabei raus. Schiefe Balken müssen gerade gerichtet werden. Nutzt Tools dazu.
  • Kommentiert, aber auch nicht zu viel. Dokumentation veraltet schnell, Kommentare veralten auch. Daher Pflegt zumindest diese. Keine Kommentare ist auch falsch. Mittelweg! Bewährt hat sich, öffentliche Methoden zu kommentieren mit (ohoh) XML-Doc und die Klasse an sich. Dies gefällt mir insbesondere bei fremdem Code, wenn wieder „die nächste Klasse“ auftaucht, und man wieder sich fragt : „warum ist diese Klasse jetzt nötig, was verdammt soll ihre Aufgabe jetzt genau sein?“. Wer mir diese Frage gleich oben beantwortet (und die sollte recht konstant bleiben), der hat bei mir einen Stein im Brett! Sparam im Quellcode zu kommentieren ist auch keine gute Idee. Ich vergesse recht schnell, welche kranken und doch genialen Ideen ich da hatte.
  • Nutzt schlaue Tools. Tools, die Euch das Leben einfacher machen und z.B. Code überprüfen, generieren oder automatisch umstrukturieren. Genannt sei hier z.B. Re-Sharper. Viele haben Angst vor der Automatik, aber sie ist deterministisch und wenn man es einmal gelernt hat, ist sie ein Segen. Denn sie denkt meist sogar an mehr, als man selbst. Dazu gehören auch Analysetools, wie z.B. der Nachfolger von FxCop oder LINTer. Sie analysieren Code auf typische Fehler und weisen Entwickler darauf hin.
  • Automatisiert, wo es geht. Das ist DevOps. Alle dummen, manuellen Schritte sollten wenn möglich automatisch getriggert und ausgeführt werden.

Brotzeit – wissenschaftlich

Heute wollen wir die Brotzeit mal physikalisch wissenschaftlich untersuchen und erklären.

Anders als die Raumzeit handelt es sich bei der Brotzeit nicht um eine Verquickung von Raum (m³) und Zeit (s), sondern von Brot und Zeit, also Brot mal Zeit* was in SI-einheiten etwa J · s ist. Denn Zeit wird in Sekunden gemessen und bei Brot handelt es sich um eine Energieeinheit. So etwas wie Wattsekunden oder Joule.

Daher ist das Produkt aus beiden Js oder Ws² . Was Arbeit mal Zeit bedeutet. Oder Leistung im Zeitquadrat. Damit lässt sich die Arbeitmahlzeitzeit ableiten.

*Es entsteht dadurch die Brotmahlzeit.

Schreibmaschine

Das Kunstrojekt „write against the machine“ ist seit gestern (15.2.2021) aktiv. Jetzt kann die Schreibmaschine also von Künstlern benutzt werden, die sich dort aktuell Schreibdialoge liefern. Es ist aktuell in einem Schaufenster der Szenekneipe Lokomov in Chemnitz zu sehen. Später werden noch mehr Exponate dazukommen und Jedermann kann schreiben. Es wird ein Gast-WLAN geben, über das man meine Oberfläche für die Erika findet.

Der Chaostreff Chemnitz mit Mmaster, et al und mir haben das Teil aufgebaut und mit einer Webseite und einer Kamera versorgt.

Außenansicht durch ein spiegelndes Schaufsenster.
Außenansicht des Ganzen. Monitor davor, der den Life-Stream anzeigt
Die Kamera ist an dem vertikalen Balken.
Schreibmaschine mit Papierführung über einen Stuhl
Seitenansicht. Die Schreibmaschine mit Endlospapier. Papier wird aufgerollt.

Die Kamera streamt ins Internet auf eine vom Freifunk Chemnitz betriebenen Peertube-Server.

Die Schreibmaschine arbeitet mit Endlospapier, welches zu diesem Zweck über zwei „Rollen“ (in Wirklichkeit sind es nur PVC-Kabelkanäle) geleitet. Da das Papier vorne und hinten fast gleich schwer ist, muss es gestrafft werden. Daher ist hinten noch ein U-Förmiges Konstrukt aus einem Abflussrohr mit Gummis, welches mit seiner gespeicherten Spannung das Papier wieder aufrollt.

Die Kamera hängt an einer Brückenkonstruktion. Daran befinden sich auch zwei Strahler, um alles etwas heller zu machen.

Frühere Ansicht bei Nacht. Gut zu sehen ist die Balkenkonstruktion.

Ich auf dem rc3 (CCC)

Ein Vortrag war das Elektrogruselkabinett Indien-Edition

Die Bilder können gerne nochmal angesehen und auch verwendet werden unter einer liberalen CC-BY-Lizenz. Siehe: Album


(Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International Lizenz.) – Robert Köpferl

Der zweite Vortrag ist How to digitale Barrierefreiheit.

Präsentation dazu: Runterlad

Beides auf der #chaoszone im #rc3

Das Programm wurde wieder einfacher…

Das ist es, was uns regelmäßig verkauft wird. Ob App, Webseite, Programm oder andere Oberfläche. Von Version zu Version wird alles immer einfacher und besser bedienbar (… und doch immer fetter auf Platte und Arbeitsspeicher).

Besser bedienbar und einfacher

Tja, da muss man sich (und andere?) wirklich mal fragen, ob die Entwickler und Designer vor Jahren alle so doof waren oder überall Nerds in den UX-Workshops unterrichtet haben. Denn mit dieser Version wird alles viel besser und vor allem einfacher. Oder doch nicht?

Wirklich?

Was die da unter einfacher und besser bedienbar verkaufen ist in Wirklichkeit eine Reduktion der Interaktionselemente und der Information. Wo es früher drei Buttons gab, ist jetzt nur mehr einer. Die anderen zwei Funktionen sind meist nicht einmal migriert (z.B. durch lange klicken, was eine Komplizierung wäre), sondern gestrichen. Wo früher Toolbars waren ist heute gähnende Leere und dafür auf dem Fenstertitel ein kleines Knöpflein – für den Ganzen Rest. Weil wir ja alle immer Vollbild arbeiten wollen und uns dabei jah nichts im Weg sein darf… Pulldown-Menüs werden ausgedünnt oder verschwinden gleich ganz. Die kompakte Befehlsdarstellung ist halt so was von 90er Jahre.

Konsequenz … komplizierter

Das Ergebnis ist doch, dass eine Software nicht mehr so flexibel bedienbar ist. Sie kann zwar jetzt den Standardfall einfacher abarbeiten, da für viele Parameter Standardwerte angenommen werden und die spezielleren Aufgaben nicht mehr erreichbar sind. Aber für die (früher normalen) Spezialfälle ist alles komplizierter geworden. Der Experte wird also seine helle Freude daran haben, weil er jetzt im hintersten Menü erst einmal die Funktion wiederfinden muss – falls noch vorhanden.

Es ist ja so, dass die Software an sich komplex ist, weil sie ein komplexes Problem löst. Das ist die Abstraktion eines Problems in seinen Facetten. Wenn ich jedoch die Komplexität aus der Nutzerschnittstelle herausnehme, kann ich mein Problem gegenüber der Software nicht mehr ausdrücken. Oder es wird umständlich.

Doch lieber nicht ‚einfacher‘

Daher mein Plädoyer: Macht die Software, Apps und Oberflächen bitte nicht immer weiter einfacher sondern macht sie komplexer! Komplexere Bedienung erlaubt mir den Problemraum zu erfassen und mich auszudrücken. Ich sehe, welche Parameter ich verändern kann und kann mir das überlegen. Auf jeden Fall sollten aber gute Standardwerte angenommen werden.

Kandidaten

Die typischen Kandidaten für solcherlei Verhalten sind alle Apple-Inspirierten Macher. Dazu gehört u.a. auch Gnome. Dort gilt das Prinzip, dass man möglichst wenig Bedienelemente zur Verfügung stellt, um blos keinen Menschen zu irritieren. Ergo nervt so eine Software damit, dass sie nicht ohne spezielle Editoren oder Konfig-Datei-Änderungen anpassbar ist. Diese Software ist unterm Strich also KOMPLIZIERTER.

Corona-Kürbis

Der Corona-Warnkürbis spricht..

.. zu uns. Was hat er uns mitzuteilen?

Corona-Warnkürbis

Das Virus SARS-CoV-2 ist auf dem Vormarsch. Sogar im sicher geglaubten Deutschland. Seid also auf der Hut und nutzt Masken wann immer es eng wird. Wichtigste Maßnahme ist das Durchbrechen von Infektionsketten. Das Virus ist eigentlich ein armer Schlucker und immer auf sein Wirtstier angewiesen und auf Zufälle bei der Übertragung von Wirt zu Wirt. Was wir machen können, ist, dem Virus diesen an sich schon schweren Infektionsweg weiter zu erschweren. Das geht am einfachsten durch das Tragen von Masken. Daher: Tut es und bleibt gesund.

Insbesondere gilt das auch mit Leuten, die man kennt! Es fühlt sich vielleicht komisch oder gar falsch an, bei Freunden/Bekannten Maske zu tragen. Bzw. es fühlt sich vertraut an, genau das nicht zu tun…. ‚man kennt sich ja…‘ Doch das ist ein Trugschluss. Das Virus unterscheidet nicht fremd und bekannt. Es breitet sich auch unter Freunden aus… hemmungslos. Daher ist auch hier Vorsicht die Mutter der Porzellankiste. Körperliche Distanz und Masken angezeigt.

Ebenfalls besonders gefährdet sind alle Menschen vom Lande und von den weniger Nicht-Hotspot-Städten (v.a. im Osten der Republik). Warum? Es war doch in der letzten Corona-Saison (Feb-Apr 2020) eigentlich eh eher ruhig und die Gefahr wurde ja quasi überschätzt?
Das ist wahr, aber genau darin verbirgt sich die Gefahr. Gerade der Sommer (eine scheiß Zeit für ein Coronavirus) war ja locker leicht, es gab Erleichterungen und die Infektionsrate war superniedrig. Doch in dieser Saison ist alles anders.!!!
In dieser Grippesaison (Okt 20-Mär 21) wird es schlimm. Schlimm! Verhindert also bitte das Schlimmste!
Das Virus konnte sich den Sommer lang quasi weltweit gut verteilen. Damit meine ich auch in die Kleinstädte, ins Erzgebirge und die Brandenburgische Pampas, wie auch die Alpenregionen … überall. Und dann kommt ganz klassisches Grippewetter dazu. Daraus folgt, dass es überall in der Republik Ausbrüche gibt. Anders als Feb 20, wo wirklich einzelne Herde isoliert vor kamen, ist es jetzt überall.
Dabei ist die Erfahrung von der letzten Saison sooo trügerisch. Weil man ja denkt: ‚… damals war es ja bei uns auch nicht schlimm und passiert ist ohnedies nichts… ‚. Genau deshalb sind die Leute in solchen Regionen besonders gefährdet. Weil sie sich weiterhin lax verhalten wollen und somit die Infektionsketten nicht durchbrechen, sondern in privaten Treffen sogar noch befördern. Plötzlich Maske am Arbeitsplatz… häää? Aber genau das sollte es sein. Die Menschen in den Hotspots sind zwar im Sommer laxer geworden, aber gefühlt ändert sich diese Grippesaison nicht so viel gegenüber der letzten.

Damit will ich es mit meinen Warnungen mal belassen und wünsche Euch allen eine erfolgreiches Versteckspiel gegen das Virus. Bleibt gesund!

8GB Wikipedia – ich in Australien 2006

Heute will ich mal einen kleinen Blick zurückwerfen. Anlass war eine Wikpedia-DVD, die mir irgendwo im Augenwinkel erschien. Da erinnerte ich mich, wie es mir damals ging. Ein kleiner Abriss der Geschichte:

Damals ? war Reisen noch ein wenig komplizierter, aber auch schon recht gut. Es gab auf jeden Fall nicht überall und kostengünstig mobiles Internet – nein nur teures. Aber es gab WLAN, welches dann und wann kostenlos war. Oft genug aber auch bezahlt. Händies waren noch Faustkeile mit smarten Anwandlugnen, aber noch entfernt von modernen, hochauflösenden und schlauen Wischflundern.

In dieser Zeit als stellte sich beim Reisen ernsthaft die Frage: Nimmt man einen Laptop mit, oder nicht. Laptops waren zu dieser Zeit schon recht portabel aber beim Gewicht+Volumen auch nicht ganz unbedeutend. Vor allem waren sie aber noch gefühlt eher teuer. Viele Leute haben diese Frage damals klar verneint. Preis und Praktik. Ich habe etwas gezögert, konnte mich aber dann doch dafür entscheiden, was eine sehr richtige Entscheidung war.

Gründe dafür waren, dass man ihn als Datenlager und Transfereinrichtung für den Fotoapparat nutzen konnte, damit telefonieren, gut Recherche machen, Filme darauf schauen, Texte damit schreiben und nicht zuletzt ihn als Wärmflasche benutzen konnte. Lauter Gründe und überdies wäre er auch unbenutzt älter geworden.

Wärmflasche, Waas? Ja, wenn man mal Bauchweh hat… dann muss man einfach nur eine Variante von Prime95 10min laufen lassen und man hat die beste Wärmflasche mit Zusatzfunktion. Die anderen Gründe klingen wohl sehr nachvollziehbar. Damals hatte man noch separate Fotoapparate mit gigantischen SD-Karten von 128 oder 256MB Kapazität. Die wollten ab und zu geleert werden. Aber auch Laptops werden geklaut, insofern man das Zeug entweder auf CD brennen wollte oder, wie ich, beim nächsten WLAN über die Nacht auf meinen Server ‚hoch-rsyncen‘. Das ging damals noch nicht sonderlich schnell. Telefonieren war auch so eine Sache. SIPGate war schon erfunden und sobald ich WLAN hatte, konnte ich kostengünstig bis gratis zu Hause anrufen. Derweil haben sich alle Anderen diese Telefonkarten gekauft und abtelefoniert. War auch nicht schlecht, aber anders umständlich.

Doch zum Titelthema. Den Laptop habe ich natürlich auch als Lektüre und Nachschlagewerk genutzt. Da damals internetfreie Zeiten durchaus noch die Regel waren, hatte ich mir vorausschauend einen Auszug der Wikipedia mit passendem Viewer auf den Rechner gepackt. 6,4 GB waren das damals. Das hatte ich dann auch gut genutzt, um bei jeder Gelegenheit (Orte, Sprachen, Länder) meinen qualifizierten Senf dazuzugeben.
Irgendwann auf Halbzeit war dieses Paket ‚veraltet‘ und ich wollte den neuesten Auszug der Wikipedia. Allerdings hatte die inzwischen über 8 GB. Doch so gut waren die Internetverbindungen nicht – selbst mit Torrent hat man ewig gewartet. Nicht zu vergessen: Volumenbegrenzung. Die Anbindung des australischen Kontinents war teuer, und so war auch Volumen an jedem australischen Internetanschluss teuer / begrenzt. Aber ich habe irgendwann an der Gold coast zu arbeiten begonnen und in einem der dortigen IT-Unternehmen konnte ich dann einen USB-Stick damit vollladen. Thema erldigt.

Tja.. manchmal ist es auch schön, von einem IT-Standpunkt in seinen Erinnerungen zu schwelgen.