Eure Daten in sozialen Netzwerken? Verabschiedet euch davon!

      ca. 7 Minuten Lesezeit  

Ach herrje, wer hätte erwartet, dass das so ausartet. Ich hab mal versucht, meine Daten aus den sozialen Netzwerken zu exportieren, auf denen ich so angemeldet bin.

Warum eigentlich? Was will ich damit?

Eigentlich ist das nur eine Spielerei, aber ich bin kein Freund der Vernichtung von Daten. Ich schreib ja in’s Internet, weil ich auch in 10 Jahren noch will, dass die Leute den Scheiß lesen können. Genau wie diesen flapsigen Post hier.

Also hab ich mich die letzten Tage mal hingesetzt und mthie.social zusammengeschraubt. Eine Seite, auf der ich die geposteten Beiträge von den ganzen Portalen aggregiere und anzeige. Ganz ohne das Tracking der Portale, was ja für einige Leute auch sehr spannend sein könnte.

Allerdings wollte ich diesen Beitrag dazu nutzen, mal aufzulisten, warum das eigentlich alles so schlimm ist.

Beziehen der Daten über die APIs

Wenn man nicht schon vor 12 Jahren angefangen hat, seine Posts, Fotos, Kommentare, whatever, regelmäßig zu holen, was durch gefühlte 100 API-Änderungen in der Zeit auch sehr nervig gewesen wäre, kommt man schon gar nicht mehr an alle seine Informationen, es sei denn, man hat SEHR viel Zeit. Denn oft scheitert man einfach mal an den API-Limits. Gerade Twitter ist da sehr anstrengend.

Daten-Export-Downloads

Bei fast allen Portalen gibt es Daten-Export-Funktionen, die ich einfach mal genutzt habe, um diese Daten dann in Markdown zu verwandeln. Das Bereitstellen der Daten hat bei fast allen Portalen knapp gleich lang gedauert.

Facebook

Es macht mich traurig. Sehr traurig. Und glücklich. Auf der einen Seite ist es äußerst traurig zu sehen, was Facebook alles für Daten bereitstellt, u.a. das Face-Recognition-Profil und wieviele Samples es dafür hat. Mit den Rohdaten konnte ich allerdings jetzt nicht so viel anfangen.

Die Liste der Posts (also genau das, was ich haben wollte) war eher so lala. Keine ID-Referenzierung auf die Original-Posts, sodass man nicht die Möglichkeit hat, die fehlenden Informationen über den Post über die API zu holen. Äußerst nervig.

Zusätzlich dazu sind die Informationen der Posts auch schwere Grütze. Hier mal der Ausschnitt meines Links zu meinem vorherigen Blog-Post:

{
  "timestamp": 1566323148,
  "attachments": [
    {
      "data": [
        {
          "external_context": {
            "url": "https://www.mthie.com/lokale-kleinh%C3%A4ndler-f%C3%B6rdern-vielleicht-nicht.html"
          }
        }
      ]
    }
  ],
  "data": [
    {
      "post": "Lokale Kleinh\u00c3\u00a4ndler f\u00c3\u00b6rdern? Vielleicht nicht!\n\nhttps://www.mthie.com/lokale-kleinh%C3%A4ndler-f%C3%B6rdern-vielleicht-nicht.html"
    },
    {
      "update_timestamp": 1566323148
    }
  ],
  "title": "Martin Thielecke"
},

Was genau soll man denn damit anfangen? Der title ist ja mal totale Grütze und zum Link gibt es NULL Informationen. Die API widerum liefert alle Infos dazu, also auch ein Vorschaubild und vielleicht mal etwas Beschreibung. Da gibt es noch viel Verbesserungspotential.

Was mich glücklich am Export macht? Damals™, als die mobilen Betriebssysteme noch nicht so genau nachfragen konnten, welche Rechte man jetzt einzeln freigeben möchte, hat man einfach auf Okay gedrückt. Dementsprechend war mein gesamtes altes Adressbuch von 2009 bei Facebook. Dadurch hab ich endlich mal wieder ein paar alte Rufnummern wiedergefunden, die mir abhanden gekommen waren. Aua.

Was Facebook allerdings über mich denkt, welche Werbung mich interessieren könnte, ist soweit vorbei an der Realität. Ich mache mir weiterhin keine Sorgen über detaillierte Profile.

Twitter

Es war eines der ersten sozialen Netzwerke, auf denen ich mich angemeldet hatte (April 2007) und dementsprechend haben die die meisten Posts von mir in der Datenbank.

Ich hatte explizit das JSON-Paket angefordert, damt ich die Daten sinnvoll auswerten und importieren kann. Es steht sogar in der README: This archive consists of machine-readable JSON files containing information associated with your account.
Und was ist da wirklich drin? JavaScript-Variablen, die JS-Objekte beinhalten. Nix von wegen JSON. Also muss man den Quark erstmal auseinanderfummeln. Moah!

Glücklicherweise hat Twitter im Gegensatz zu Facebook ein paar mehr Infos zu den Tweets mitgeliefert.

{
  "retweeted" : false,
  "source" : "<a href=\"https://about.twitter.com/products/tweetdeck\" rel=\"nofollow\">TweetDeck</a>",
  "entities" : {
    "hashtags" : [ ],
    "symbols" : [ ],
    "user_mentions" : [ ],
    "urls" : [ {
      "url" : "https://t.co/Y4UUO98ZxP",
      "expanded_url" : "https://www.mthie.com/lokale-kleinh%C3%A4ndler-f%C3%B6rdern-vielleicht-nicht.html",
      "display_url" : "mthie.com/lokale-kleinh%…",
      "indices" : [ "48", "71" ]
    } ]
  },
  "display_text_range" : [ "0", "71" ],
  "favorite_count" : "1",
  "id_str" : "1163869680668487681",
  "truncated" : false,
  "retweet_count" : "1",
  "id" : "1163869680668487681",
  "possibly_sensitive" : false,
  "created_at" : "Tue Aug 20 17:45:30 +0000 2019",
  "favorited" : false,
  "full_text" : "Lokale Kleinhändler fördern? Vielleicht nicht!\n\nhttps://t.co/Y4UUO98ZxP",
  "lang" : "de"
},

Joah, kann man mit leben. Auch hier wären noch ein paar nette Vorschauinfos ganz cool gewesen, aber da wir ja hier die ID haben, kann man das über die API abrufen. Was ich bei Twitter zum Schießen finde: Wenn sie die ID sowieso als string liefern, warum gibt es das id_str-Feld zusätzlich?

Instagram

Ach herrje, welcher bekiffte Teenie hat den DEN Export geschrieben? Die Kommentare sind Listen von strings, z.B. ["2015-03-30T17:02:46", "Lass mal die Filter weg.", "guusvw91"],
Was genau will uns der Export damit sagen? Ist das ein Kommentar von Guus oder von mir an Guus? Danke für den Timestamp und den Text, aber diese Informationen sind komplett wertlos und kontextfrei.

Exakt der gleiche Quatsch passiert bei den Likes: ["2017-11-04T06:44:26", "genussgier"], - was ist das? Habe ich einen Post von genussgier geliked oder der Account von mir? Wir werden es aus dem Export heraus wohl nie erfahren.

Zum Glück hat Instagram es zumindest beim media.json nicht komplett vergeigt. Hier wurden die Fotos in einem separaten Ordner gleich mitgeliefert und im JSON auch darauf verlinkt. Außerdem stehen alle Informationen des Posts im Export drin. Auch hier fehlt zwar die ID (vielleicht für Backlinks ganz cool), aber was soll man im Nachhinein bei Instagram damit? Die API unterstützt sowieso kein Abruf einzelner Posts und ihrer Informationen. Man darf maximal die letzten 20 Posts abrufen und das war’s dann auch schon:

{
  "caption": "It's only a drive-by photo, sorry.\n\n#deloreantimemachine #delorean #newyorkcity #newyork #newyorkcitylife",
  "taken_at": "2018-11-28T18:08:30",
  "location": "Manhattan, New York",
  "path": "photos/201811/a87d96e67a668fb89831e3c2c61b197d.jpg"
},

Gut, dass ich die App deinstalliert habe.

Google+

Google ist mit seinen Takeout-Bemühungen ja schon recht früh in das System eingestiegen, dass User ihre Daten auch mal exportieren können. Sie liefern auch mit Abstand die größten Takeouts, selbst wenn man nur sowas “Einfaches” wie die Google+-Posts exportiert. Hier hatte ich kurz vor der Abschaltung für Privatuser einen Takeout anlegen lassen. Allerdings war ich sehr blind und habe HTML-Archive exportiert. Mit denen konnte man rein gar nix anfangen. Ein ganz grausames Durcheinander.

Heute habe ich also nochmal einen neuen Export gemacht mit JSON-Exports. Das Format ist halbwegs einfach und übersichtlich, für jeden Post eine separate JSON-Datei. Damit brechen dann auch die Parser nicht unter Unmengen an Daten zusammen. Darin verlinkt auch schön die Bilder, die man im Archiv gleich dazubekommt. EIGENTLICH. Denn circa 50% der Bilder wurden einfach mal gar nicht mit ausgeliefert. Im Post noch vorhanden, auch die URL zum Bild (nicht das Originalbild, was sonst im Takeout drin ist) ist gültig. Warum sie es also nicht mitgeliefert haben, bleibt ein Rätsel.

Aber eigentlich war ich nach dem HTML-Schock dann doch erleichtert, dass der Export ganz brauchbar war. Glücklicherweise besteht bei dieser Plattform jetzt keine Notwendigkeit mehr, neu geschriebene Posts per API holen zu müssen. Bye bye Google+.

LinkedIn

Hier muss ich zugeben: Verdammt, ich hab noch nie wirklich was auf LinkedIn gepostet. Der Export war also am Ende recht sinnfrei. Na egal, wird das Profil halt einfach nur verlinkt.

Die restlichen Informationen gibt es im CSV-Format, was halt einfach ein bescheidenes Format für Datenexporte ist, vor allem wenn man wie LinkedIn dann teilweise in die CSV nur reinschreibt, dass man die hochgeladenen Videos unter der angegebenen URL alle runterladen kann. Danke für nix.

Github

Auch wenn es jetzt für manche Menschen komisch klingt, aber github ist das soziale Netzwerk für Entwickler. Aber was genau will man da wirklich exportieren? Die Repositories hat ja eh jeder schon da und von denen kann/will/darf man u.U. gar nicht alles veröffentlichen.

Mehr bekommt man am Ende aber aus dem Export nicht raus. Es gibt aber auch nicht wirklich mehr, außer vielleicht Stars auf andere Repos. Hmm, egal.


Was mich an der ganzen Geschichte etwas fasziniert hat, mit welchen unterschiedlichen Methoden die Entwickler die Exporte gebaut haben, also dass Twitter und Facebook alles in eine grosse Datei werfen, während Google im Zweifel lieber 100.000 Dateien zurückgibt. Da merkt man direkt, welcher der Anbieter sowas parallel verarbeiten lässt.


Lokale Kleinhändler fördern? Vielleicht nicht!

      ca. 2 Minuten Lesezeit  

Immer wieder hört man, dass man doch lokale Anbieter und Händler benutzen möge, damit man die Region stärkt und fördert. Genau das hat meine Nachbarin getan. Resultat?

Abzocke vor dem Herrn!

Aber von Anfang an. Meine Nachbarin war Kundin der Telekom, die ihr gekündigt haben, weil der alte Vertrag (ich sag nur Festnetzanschluss ohne VoIP) ausläuft. Auf der Suche nach einem neuen Anbieter gab es viele Querelen. Z.B. haben wir hier ja die Stadtwerke Wedel, die mit WedelNet auch entsprechende Anschlüsse anbieten.

Nachdem jetzt aber der Glasfaseranschluss nicht kommt, weil die Quote in der Nachbarschaft nicht erreicht wurde, werden auch gerade alle Verträge hier in der Nachbarschaft gekündigt, die über die Telekomleitungen fremdvermietet wurden. Vielen Dank Vectoring 🤮

Was bleibt also übrig? Telekom über Klingeldraht und Vodafone mit Koax-Kabel.
Da sie gerne die lokale Wirtschaft und den Handel stärken möchte, ging meine Nachbarin also zum lokalen Technikhöker, der ihr natürlich erstmal Gruselmärchen über Vodafone erzählt (weil hat ja schon bei Person XYZ nicht funktioniert!!!1eins!!elf! und wir haben einen Exklusivvertrag mit der Telekom). Da sie technisch nicht so bewandert ist, haben die ihr also einen DSL-Anschluss der Telekom angedreht. Mit 6 MBit/s. Für 35 Euro im Monat. Wir erinnern uns: direkt im Nebenhaus haben wir 1 GBit/s. Für €49,99 im Monat.

Und da ihre FritzBox auch schon ein paar Jahre alt war, hat man ihr dann auch gleich mal eine neue verkauft. 5 Jahre war sie alt. Testsieger Januar 2014. Mit einer Maximalleistung von 100 MBit/s. Also lieber mal nicht für die Zukunft planen.

Aber mit den technisch unversierten Kunden kann man es ja machen.

Kannste nur mit dem Kopf schütteln

Google - oder wie man Dinge verkackt

      ca. eine Minute Lesezeit  

Heute kam die erfreuliche Nachricht rein, dass sich der Nest-Account endlich mit dem Google-Account verknüpfen lässt. Endlich also “keine separate 2-Step-Verifikation mehr für Nest”, so mein Gedanke.

Google dachte sich dann allerdings: “Okay, wie können wir die User maximalst vergraulen?” und verkackte es dann wie folgt:

Nope!

Hört man ja auch ganz oft, dass Firmen (oder Privatuser mit Firmenaccounts) keine Nest-Produkte betreiben.


Beyond-Meat-Entjungferung

      ca. eine Minute Lesezeit  

Heute hatte ich das Vergnügen, den Beyond-Meat-Burger probieren zu dürfen.

Der Burger

Das Via Cafélier hat den Burger heute mal im Menü angeboten und alle Kollegen nach dem Vorlesen der Karte so: “Alles klar, machen wir!”

Mein Fazit: Es ist schon wirklich lecker. Also das Burger-Patty. Der Rest drumherum war eher “normal”, aber dafür kann dann nur der Koch was 😉


Gefühle in Diskussionen

      ca. eine Minute Lesezeit  

Ich bin wahrlich kein Fan der taz, aber wenn ihr in dieser Woche nur einen einzigen Artikel lest, dann bitte diesen.

Wenn an die Stelle von Argumenten Gefühle treten, ist an Diskutieren nicht zu denken. Das würgt alles ab.

Wenn alle Diskussionen im Internet und im realen Leben bitte so geführt würden, das wäre schon töfte.


Blog oder Social Network? Das ist hier die Frage!

      ca. 3 Minuten Lesezeit  

Seit geraumer Zeit quält mich der Gedanke, was eigentlich die sinnvollste Plattform ist, um seinen Ramsch zu verbreiten?

Soziale Netzwerke

Facebook

Es ist ja weiterhin eines der größten Netzwerke der Welt. Aber sind wir doch ganz ehrlich: Es ist auch eines der Beschissensten. Man liest sehr häufig von Sperrungen, die Timeline wird vorgefiltert wie Blöde, sodass zum Beispiel dieser Blogbeitrag bei extrem wenigen Freunden überhaupt angezeigt wird.

Die Interaktionsrate von Facebook ist in den letzten Monaten so hart runtergegangen, außer es handelt sich um Posts zum Thema Links vs. Rechts. Und wenn man dann weiterspinnt, was wohl in 5 Jahren ist, dann kann es gut sein, dass all eure Inhalte weg sein werden. Denn die Plattform gehört euch nicht. Der von euch gepostete Inhalt auch nicht mehr.

Von der ganzen Tracking-Sache fang ich jetzt lieber gar nicht erst an.

Twitter

Auch wenn ich in den letzten Monaten viel mehr Zeit auf Twitter, als auf Facebook verbracht habe, hilft die Plattform nur gegen Langeweile. Die Threads haben in meinen Augen nicht wirklich geholfen gegen die 140- bzw. jetzt die 280-Zeichen-Beschränkung als Diskussionshemmer. Es hilft insofern, als dass die Diskussionen jetzt noch verstreuter als Antworten auf irgendwelche Thread-Untertweets zu finden sind. Nervig hoch zehn!

Instagram

Es ist und bleibt ein Bilderdienst und die Gedanken, die dort geteilt werden sind eher vom Typ Bilder mit voll intelligentem Text, ey! Das ist kein Netzwerk, sondern eine Selbstbeweihräucherungsplattform für unsere neue “BILDungselite”.


Was auch ein interessanter Punkt ist, den viele Menschen vergessen: Das Internet wurde mal dafür gebaut, ein dezentrales System zu sein. Und wo schmeißen wir heute alle unsere Inhalte hin? Zu den 1 bis 2 großen Providern. Wenn die offline sind, ist das Gejammer riesig.

Eigenes Blog / Website

Leider hat so ein eigenes Blog seine Vor-, aber auch Nachteile.
Die Vorteile sind kaum von der Hand zu weisen:

Ausgerechnet die Sache mit dem Tracking wird immer Spannender. Seitdem ich auch im Chrome wieder NoScript verwendet, sieht man erstmal wieder, wieviele externe Tracker auf den üblichen Webseiten so verbaut sind. Mit am Schlimmsten (aber Lustigsten) finde ich die meisten Wir-Setzen-Jetzt-Ein-Cookie-Für-Sie-Overlays. Die sind nicht nur die aktuelle größte Pest, sondern setzen auch die interessantesten Cookies.

Ich hatte oben ja auch Nachteile erwähnt. Meiner Meinung nach gibt es da nur die nicht vorhandene Einfachheit. Es ist nicht wirklich einfach für Otto Normalverbraucher, ein Blog aufzusetzen und zu betreiben. Erst recht nicht, wenn man urplötzlich auch noch Reichweite hat und die Last des kleinen All-Inkl-Servers dem Druck nicht mehr standhält.
Aus diesem Grund betreibe ich ja ein statisch generiertes Blog. Das Hosting kostet mich nur wenige Cent im Monat.

Wahrscheinlich werden jetzt auch einige Leute meinen, dass das ja auch alles viel zu persistent ist und Stories ja der neue heiße Scheiß sind, aber diesen Leuten ist eh nicht zu helfen.

Update: Olli hat sich dem Thema auf seinem Blog auch mal angenommen.


Das Deutscheste Viertel

      ca. eine Minute Lesezeit  

Alljährlich beweisen unsere Nachbarn, wie Deutsch sie so sind und drucken uns und diversen anderen Nachbarn den gleichen Brief immer wieder aus und schmeissen ihn uns in den Briefkasten:

Brief

Nach diversen Monaten in den USA ist das mit das Deutscheste, was mir bisher so untergekommen ist, vor allem, weil sich dieser Nachbar noch nie einfach mal vorgestellt hat. Meist kann man mit den Leuten ja reden, aber dies ist einfach so armselig.


Etwas schnelleres Internet

      ca. eine Minute Lesezeit  

Nach einem kurzen Hin und Her mit vergessenem Upgrade-Auftrag bei Vodafone, kam heute der neue Router, der DOCSIS 3.1 spricht. Ich lass das Speedtest-Ergebnis jetzt einfach kurz für sich sprechen:

Aktuelles Speedtest-Ergebnis

Ja, vielleicht waren hier noch 1-2 andere Leute in der Nachbarschaft online und außerdem liefen hier noch ein paar Uploads nebenbei. Aber ich denke, das kann sich langsam sehen lassen.

Es war im Übrigen gar nicht so einfach, einen Endpunkt zu finden, der auch mehr als 250 MBit/s aushält. Das sagt am Ende mehr über deutsches Internet aus, als einem lieb ist.

Nächster Schritt: Symmetrische Leitung. Aber das wird dann wohl nicht mehr über’s Kabelnetz passieren.
Da unsere Nachbarn allerdings alle der Meinung sind, wir bräuchten hier kein Glasfaser, muss ich damit dann wohl erstmal leben.


Bye bye Alexa, hallo Google Assistant

      ca. 5 Minuten Lesezeit   Read in English

Mangels Alternativen steht man ja derzeit vor 3 großen Fragen:

  1. nehme ich einen Sprachassistenten? Und wenn ja:
  2. lieber Amazons Alexa?
  3. lieber Google Assistant?

Für viele Menschen in Deutschland ist die Antwort auf die erste Frage: „Um Gottes Willen, nein! So ein Spion kommt mir nicht in’s Haus!“
Ihr dürft jetzt gerne aufhören zu lesen, dieser Artikel ist nicht für euch.

Bei mir im Haushalt war die Antwort auf die anderen beiden Fragen: Puh, ich probier’ mal beide Systeme aus – mal gucken, was sich durchsetzt. Nach fast 2 Jahren mit Alexa auf Amazon-Echo-Geräten und mehr als 2 Jahren mit dem Google Assistant auf Google Homes, beide Systeme im gesamten Haus verteilt – jeder Raum wirklich mit beiden Systemen ausgestattet – ziehe ich mein persönliches Fazit, dass der Google Assistant um Welten besser als die Alexa ist.

Vor- und Nachteile von Alexa

Der Einstieg zu Amazons Geräten ist sehr einfach. Im großen Shop werden einem die Geräte ja quasi hinterhergeworfen – angefangen habe ich mit der großen Röhre, es ging dann weiter mit der kleinen Echo, später kam dann die erste Echo Show und danach die zweite Generation Show dazu.

Hat man den Rest der Familie dann auch mit einer Echo Show ausgestattet, kann man endlich die seit Jahrzehnten propagierte, aber nie wirklich durchgesetzte Videotelefonie im Wohnzimmer betreiben. Es ist einfach in der Benutzung, man bleibt aber auf Mobiltelefone als Alternativgeräte beschränkt, wenn man keine Echo Show besitzt.

Für die Amazon-Geräte erhält man sehr viele sogenannte Skills, also Möglichkeiten der Interaktion, die dann „irgendwas“ auslösen – also z.B. das Ein- und Ausschalten des Lichts. Ich benutzte diese Skills nicht nur für simple Licht-Dinge, sondern eben auch für die Hausautomatisierung.

Amazon hat anfangs viele Echos bei Skill-Programmier-Workshops verschenkt, um Entwickler dazu zu bringen, den Skill-Store zu befluten. Es war auch sehr einfach, „mal eben kurz“ einen Skill zu erstellen – kurz den Satz, den der User sagen muss bestimmen, das Ziel-Script bestimmen, wo die Aussage im Internet getriggert werden soll und fertig ist der simple Skill.

Was mich persönlich daran stört, sind die festgelegten Sätze. Mal abgesehen davon, dass man sowieso nicht so doof denken kann, wie der Endnutzer, sind gerade übersetzte Skills von Nicht-Deutschen Firmen eher krückenhaft übersetzt und das Ganze spricht sich sehr holprig. Das macht die Benutzung Alexas für Otto-Normalverbraucher einfach zu kompliziert.

Der Name und damit auch Keyword des Assistenten ist übrigens auch äußerst kontraproduktiv. Schaut man Filme über „Alexander den Großen“, ist es ratsam, vorher das Mikro auszuschalten. Die Alternativen wie „Echo“ und „Computer“ sind auch nicht wirklich besser.

Möchte ich etwas von Alexa wissen, wird im Hintergrund Bing als Suchmaschine verwendet, was dazu führt, dass die Antwort – mal ganz plump dahergesagt – völliger Mist ist.

Vor- und Nachteile von Google Assistant

Google macht den Einstieg in den eigenen Assistenten auch nicht wirklich schwer. Viele Läden werfen einem die Google-Home-Mini-Geräte regelrecht hinterher. Auch hier hab ich mit den ersten Röhren angefangen, die nur halb so hoch wie die Echos waren, aber trotzdem sehr guten Klang boten.

Kurz darauf kamen, wie von Amazon auch, kleine Versionen der Google-Home-Geräte raus, die aber dank Stoffüberzug und runder Kanten schon in der ersten Version hübscher waren, als die Echos.

Die Entwicklung von „Actions“, quasi die Skills für den Google Assistant, ist allerdings etwas komplizierter. Als Entwickler kann man gerne Hilfen wie Dialogflow (ehemals api.ai) verwenden, um über Machine Learning lernen zu lassen, was Benutzer so sagen und es tunen zu lassen. Man kann Dialogflow natürlich auch für Alexa Skills verwenden, allerdings muss man das Gelernte dann noch exportieren und für die Skills neu importieren.

Möchte ein Entwickler Geräte steuern lassen, müssen diese als Gerätegruppe von Google bereitgestellt werden – dies sorgte dafür, dass lange Zeit meine Außenrollos nicht unterstützt werden konnten, aber auch hier hat Google längst nachgebessert. Leider ist eQ-3 mit Homematic IP nicht in der Lage oder Willens (trotz mehrfacher Nachfrage keine sinnvolle Reaktion), hier eine Unterstützung anzubieten. Dass dies zur Überlegen führt, auch dieses System auszutauschen, will die Firma auch einfach gar nicht realisieren.

Und trotz fehlender Unterstützung seitens einiger deutscher Firmen funktioniert der Google Assistant in der Bedienung doch wirklich bedeutend besser und intuitiver, als Alexa und die Produkte von Google sind wirklich deutlich wertiger, als Amazons Geräte.

Was Google im Gegensatz zu Alexa allerdings wirklich gut kann, ist die Zuordnung des aktuell sprechenden Menschen zu Google-Accounts und auch die Benutzung mehrerer Sprachen zur gleichen Zeit. Manche Actions sind nämlich im Englischen vorhangen, im Deutschen allerdings nicht. Da wäre die grundsätzliche Umstellung auf Englisch in einem deutschsprachigen Haushalt dann eher lästig.

Der bedeutende Unterschied

Der in meinen Augen größte Unterschied zwischen beiden Systemen ist einfach, dass man merkt, wofür sie erschaffen wurden. Der Google Assistant wurde erschaffen, um den Menschen eine Sprachsteuerung im alltäglichen Leben nahezubringen, dass man auch über Sprache lernen und steuern kann. Bei Amazon wollte man ein Gerät auf den Markt werfen, worüber man per Sprache shoppen sollte und welches dann zufällig noch andere Dinge erledigen konnte.

Die natürliche Sprachein- und Ausgabe, die angenehmeren Stimmen, sowie bessere Antworten bei alltäglichen Fragen, machen den Google Assistant mit den Google-Geräten für mich persönlich zum einfach besseren Assistenten im Eigenheim.

Nachteil: Ich muss den Rest der Familie jetzt mit einem anderen Videotelefonie-System ausstatten 😉

Wie immer gilt: dies ist meine persönliche Meinung. Habt ihr eine andere Meinung oder Erfahrung, lese ich sie mir gern auf eurem Blog durch.


Meine Wünsche zur Artikel-13-Debatte

      ca. 6 Minuten Lesezeit  

(geschrieben aus meiner beschränkten Sicht als Programmierer)
Zuallererst schauen wir uns dieses Video vom Rechtsanwalt Solmecke an (ich warte mit dem Weiterschreiben, bis ihr fertig seid, das dauert nämlich ‘ne Weile):

Schön, dass ihr es durch den tiefen Sumpf der Gesetzgebung geschafft habt. Wir wissen jetzt also, dass sowieso alles offen ist und dass wir immer noch nicht wissen, was da jetzt eigentlich passieren soll.

Fangen wir mal an, wie so ein Video-/Bild-/Audio-Upload “ausgewertet” und umgangen werden könnte. Derzeit gibt es bei Youtube das sogenannte ContentID-System, welches “Fingerabdrücke” von Teilen des Videos macht (kurz erklärt: man nimmt markante Stellen aus den Videos und macht daraus eindeutige IDs, so wie bei menschlichen Fingerabdrücken auch nur bestimmte Punkte als Referenzen verwendet werden). Mische ich unter das Video kleine Extra-Bilder, die dem User als Ministörung vielleicht gar nicht bewusst auffallen, kann man dieses System schon ganz knorke umgehen (aber das machen wir natürlich nicht!).

Fangen wir jetzt an, dieses System auszunutzen, da sowieso nicht jedes Einzelbild eines Videos zur Auswertung benutzt werden kann, weil das die Rechenzeit immens in die Höhe treiben würde, benutze ich diese kleinen Einzelbilder, um über Youtube einfach Bilder zu verbreiten, deren Lizenz ich nicht habe, aber die mit meinem selbst aufgenommenen Video aus dem Wald rein gar nichts zu tun haben. Ich kann einem Player ja ziemlich genau sagen, an welche Position im Video er springen soll (ohne Autoplay) und kann damit quasi eine Bildergalerie über einen Youtube-Player bauen. Das ist nicht wirklich schwer, Otto-Normal-Verbraucher wird sich diese Arbeit nicht machen. Genauso kann ich den Player aber mit Autoplay auch überreden, von Stelle zu Stelle zu springen (Danke liebe Browser, dass ihr heute schon so performant seid). D.h. ich mische kleine halbsekündige Teile eines 3-Minuten-Musikvideos in ein 5-stündiges Waldvideo ein und spiele von Stelle zu Stelle einfach diese kleinen Teile hintereinander ab.

So und wie soll so ein Filter das jetzt erkennen? Mit machbarem Aufwand: Gar nicht. Und wenn man einen Weg findet, gibt es Tage später den nächsten Weg, wie man es umgeht.

Und genau da sind wir an dem Punkt, wie Artikel 13 unrealistisch wird. Es steht zwar nicht drin, dass die Anbieter einen Filter einsetzen sollen, aber sie sollen doch gefälligst verhindern, dass urheberrechtlich geschütztes Material veröffentlicht wird.

Versetzen wir uns doch mal in die Position alter Menschen (hier als Beispiel sei mal der typische CDU- und SPD-Politiker genannt): in deren Augen arbeiten schließlich fast 100.000 Menschen bei Google, die können sich doch hinsetzen und die Videos durchgucken, die da so hochgeladen werden, oder? Wenn man die alte Zahl von 300 Stunden Videomaterial, die pro Minute hochgeladen werden als Referenz nimmt, können das die 100.000 Mitarbeiter wohl schaffen, aber es ist jetzt nicht gerade so, dass die alle für Youtube arbeiten und nur Videos gucken. Ist also unrealistisch. Und dann müssen ja auch noch diverse Leute eingesetzt werden, die dann mit den Rechteinhabern sprechen. (Diese Erklärung ist grad so stark naiv vereinfacht, dass selbst alte Leute sie eigentlich nicht ernst nehmen dürften.)

Was also sonst bewegt diese Menschen dazu, sich sowas auszudenken, wenn wir hier als Annahme rausnehmen, dass sie von noch älteren Rechteinhabern = Medien-Publisher dafür bezahlt werden? Gehen wir mal davon aus, dass diese Menschen glauben, dass AI inzwischen dazu fähig ist, Urheberrechtsverletzungen zu erkennen? Sind wir doch mal ganz ehrlich: AI ist ein Witz und reine Panikmache von Menschen, die es nicht verstehen. Viele “künstliche Intelligenzen” bestehen aus einer Vielzahl von if-else-Abfragen, die dann auch noch löchrig wie Hölle sind. Machine Learning (oder besser Deep Learning) ist noch lange nicht so weit, Gesichter von berühmten Personen zu erkennen (ich habe da gute Beispiele für) und dann sollen sie mit entsprechender Fehlertoleranz Urheberrechtsverstöße erkennen? Es tut mir wirklich Leid, aber eure Medikamente hätte ich auch gerne.

Und kommen wir doch dann noch einmal in die Realität zurück: Aus der Mitte des Social-Media-Tellers sieht jeder Tellerrand aus wie Youtube und Facebook. Selbst wenn wir 2 unterschiedliche Systeme von 2 milliardenschweren Unternehmen hätten, die das System ganz okay umsetzen könnten - was ist denn mit dem Rest? Wir haben da draußen über 300 Millionen registrierte Domains auf der Welt und dann bauen wir Gesetze, die eigentlich nur 2 Domains betreffen sollen, aber dafür 20 andere deutsche Unternehmen in die Insolvenz treiben, weil die nicht die menschlichen Ressourcen haben, solche Analyse-Tools zu bauen? Wir können ja schon mal anfangen, bei Japan, Vietnam und den USA digitale Entwicklungshilfe zu beantragen.

Na gut, ich hab ja im Titel “meine Wünsche” stehen und noch nicht einen einzigen Wunsch geäußert.

Der letzte Punkt ist so eine Sache, die mir schwer im Magen liegt. Wenn ich mir vorstelle, dass ich da in Brüssel sitze und bekomme nur mit, was da im Internet mit den Menschen passiert, dann ist das nur Rumgeheule. Es gibt ganz wenige Menschen, die mit fundierten Aussagen daherkommen, aber der Großteil heult rum. Vielleicht wird auch mein Beitrag so wahrgenommen, ist dann halt so. Bitte verwandelt das Geheule doch bitte in Wut - aber eine vernünftige Wut, keine die anderer Leute Eigentum kaputt macht. Geht auf die Straße, nehmt eure Kinder und Eltern mit, erklärt ihnen, dass die Partei, die sie gewählt haben dafür sorgen könnte, dass zu Weihnachten dieses Jahr (eigentlich erst frühenstens in 2 Jahren, aber ein bisschen Panik muss sein) keine besoffenen Elfen mehr per Whatsapp verschickt werden können und dann könnte es sein, dass die Parteien sich doch nochmal entsinnen, dass die Spendengelder nur ganz selten von Mitgliedern kommen könnten.

Auf Twitter habe ich noch den Hinweis bekommen, dass doch gefälligst jeder auch Parteimitglied werden solle und sich engagieren solle - ich bin Mitglied einer sehr guten Partei, aber die arbeitende Bevölkerung hat eben nicht immer Zeit, jedem anderen Parteimitglied auf die Finger zu klopfen. Außerdem: wenn wir alle Parteimitglieder wären, bräuchten wir keine Wahlen mehr, sondern nur noch die Mitgliedszahlen auswerten. Das ist auch nicht der Sinn der Sache.