Das Smartphone verschwendet deine Zeit

Smartphones sind Zeitverschwender. Wer mich kennt, für den klingt das jetzt wahrscheinlich ziemlich lustig. Bin beziehungsweise war ja immer bekannt als der absolute Handy-Süchtling unter meinen Leuten und an meiner Schule. Und es war auch wirklich eine schlimme Geschichte. Wir sind essen gegangen, ich hab mein Handy rausgeholt. Wir hatten Pause, ich hab mein Handy rausgeholt. Wir sind spazieren gegangen, ich hab mein Handy rausgeholt. Und was hab ich gemacht an meinem Handy? Naja, gab einiges zu tun. Nachrichten beantworten, Snapchat durchschauen, auf Twitter rumscrollen, mich von meinen Instragram berießeln lassen.

Irgendwann hab ich mich dann entschlossen, dass es so nicht weiter gehen kann und ich hab es geschafft, das einigermaßen zu reduzieren. Mit dem Kauf von meinem Laptop hab ich dann gemerkt, wie unproduktiv das kleine Ding eigentlich ist. Schreiben dauert unheimlich lange und die paar produktiven Apps, die mir wirklich was bringen, stell dir vor, es geht auch ohne die. Meine Busline kenn ich und ich recherchiere sowieso viel lieber auf einem richtigen Computer. Das hat mir natürlich auch unheimlich geholfen, von meinem Handy weiter loszukommen.

Vor ca zwei Monaten hat mein Smartphone, ein Samsung Galaxy Note 3, dann langsam angefangen rumzuspinnen. Ohne es auch nur irgendwie anzurühren war der Akku schon nach ein ein halb Tagen leer. Dauernd haben irgendwelche Dienste irgendwas im Hintergrund gemacht. Das ich auch bekannt als die gute alte Samsung Akku-Krankheit. Es hat mich jedenfalls zu dem Punkt genervt, dass ich ernsthaft überlegt hab, mir ein Purism Librem 5 zu holen, wie sich aber herrausstellte, war das doch etwas zu gewagt vorallem in Bezug auf den hohen Preis von an die 600€. So hab ich mein nach einem Android Smartphone umgeschaut, das ein offenes Android Betriebssystem nachem LineageOS am laufen hat. Grund dafür war, dass ich meine Privatsphäre erhöhen wollte und von den immer verfolgenden Google Diensten abstand bekommen wollte.

Schließlich hab ich dann ein fast nagelneues Samsung Galaxy Note 3 für 130€ auf ebay gekauft, das ich noch am darauf folgenden Tag mit LineageOS ausgestattet habe. Ein sehr guter Deal wie ich finde. Und ja, ich habe mir genau das gleiche Handy nochmal gekauft. Mit dem kenn ich mich aus, das funktioniert prima, hat alles, was ich brauche und keinen unnötigen Schnickschnak.

So viel zur Vorgeschichte. Denn dieses Mal bin ich mein einrichten meines Smartphones einen ganz anderen Weg gegangen. Ich habe tatsächlich nur die Apps installiert, die ich unbedingt brauche. Ich hab überlegt, was ich mit meinem Handy tatsächlich mache und das sind folgende Dinge: Anrufen, Nachrichten beantworten, Musik hören, nachschauen, wann mein Bus geht, Fotografieren und hin und wieder im Internet Surfen. Was hab ich also installiert? Tatsächlich nicht mehr, als PowerAmp, meinen Musikplayer, die App für unseren ÖPNV, Firefox, eine Kamera App, die ich sehr gern benutze und Telegram. Kein WhatsApp, kein Instagram, kein Snapchat, kein YouTube, kein Twitter. Alles Dinge, ohne die ich am Handy wunderbar auskomme.

An dieser Stelle ist es Zeit, über meine WhatsApp Geschichte zu reden und warum ich auf meinem eigentlichen Handy kein WhatsApp mehr habe. Alles fing an mit Google+. Ich hab mich für Anime und Manga interessiert, weil ich über einen Musik Promotion Channel auf YouTube zufällig auf Anime Artwork gestoßen bin. Ich wollte nie ein größeres soziales Netzwerk benutzen, beim Facebook Mainstream mitzumachen, hat mir noch nie gefallen. Der Gedanke, Dinge aus meinem privaten Leben mit Kreisen zu Teilen. Also hab ich Gruppen gesucht, die ein spezielles Thema verfolgen, über das man dann Posten und Schreiben kann. Über Google+ bin ich zum Thema Anime und Manga fündig geworden. Google+ gibt es seit ein paar Tagen nicht mehr, aber ich hab dort viele tolle Leute kennen gelernt, viele tolle Sachen entdeckt und viel Zeit verbracht. Irgendwann hat dann jemand einen Post gemacht über eine WhatsApp Gruppe zu diesen Themen und ich hab ein bisschen überlegt, aber hab letztendlich meine Nummer jemandem gegeben, die mich hinzugefügt hat. Und so hab ich meine hauptsächliche Zeit auf WhatsApp verbracht für das nächste Jahr. Ich hatte einen heiden Spaß, hab mich viel unterhalten und unter anderem meine jetzige (und vorherige) Freundin kennen gelernt.

Nur irgendwann wurde das zu viel. Mein Gehirn hatte keine Pause mehr, war durchgehend mit irgendwas beschäftigt. Am Anfang ist mir das auch aufgefallen, einem schnell Chatverlauf zu folgen und etwas zu schreiben, erfordert eine hohe Lesegeschwindigkeit und am besten WhatsApp Web mit einer richtigen Tastatur. Aber spät hab ich mich daran gewöhnt und gar nicht gemerkt, wie ich mein Gehirn mit abwechselndem Osu! spielen und WhatsApp schreiben nach und nach immer mehr überfordert hab. Im November 2016 hatte mich allerdings eine Bekanntschaft so weit in den Wahnsinn getrieben, dass ich einfach nur noch raus wollte aus WhatsApp. Der Fakt, dass WhatsApp kurz zuvor an Facebook verkauft wurde, hat mich angewiedert und diese eine Person hat mich letztendlich dazu gebracht, meine messages.db und alles andere an WhatsApp Daten zu sichern und diese App komplett von meinem Handy zu löschen. 820 Megabyte and reinem Text in Form einer sqlite-Datei ist über diesen Zeitraum entstanden. Wenn man sich überlegt, dass jede Nachricht durchschnittlich nur einige Byte groß ist, kann man sich ungefähr ausrechnen, dass in diese Zeitraum ein Nachrichtenverkehr von über Hunderttausend Nachrichten entstand. Wie viel Zeit es mich gekostet hat, einen Großteil davon zu lesen und zu verfassen, will ich mir gar nicht ausmalen.

Aber jetzt wieder zurück zum Thema: Was ich dadurch erreicht habe, nun ein Smartphone zu besitzen, das mich nur über einen Webbrowser und Telegram mit der Außenwelt verbindet, lässt sich in einem Wort zusammenfassen: Zeit. Mehr Zeit. Viel mehr Zeit. Endlich konnte ich mich auf die Schule konzentrieren, hatte zwischen den Osu!-Maps Zeit zum runterkommen. Und zusätzlich dazu verschwende ich keine Zeit mehr vor dem Einschlafen, am Küchentisch in der Früh, in der Schule. Ich habe diese Zeit, die ich vorher permanent am Handy war zu eine Zeit gemacht, die ich für mich habe und für den sozialen Umgang.

Des weiteren hab ich es geschafft, meinen YouTube-Video Konsum dahingehend einzudämmen, dass ich nur noch bewusst Dinge schaue, dich mich interessieren. Ich habe ganz einfach die Erfahrung gemacht, dass man sich nicht nur von seinem Smartphone, sondern generell von Plattformen berießlen lässt, weil einem gerade langweilig ist, oder einem nicht nach etwas Produktiven ist. Und ich kann das Absolut verstehen, nach einem Schultag von 8:10 bis 17:00 hat man am Ende keine Lust mehr, auch nur irgendwas Produktives zu tun, da schmeißt man den Fernseher an und gut is‘. Oder man kuschelt sich ins Bett ein und beschäftigt sich mit Twitter oder ähnlichem.

Vielen ist bestimmt aufgefallen, wie leicht man dabei mehr Zeit verbringt als man will. Denn Lebensunterhalt der Plattformen ist es, dass sie die Zeit, die man auf der Plattform verbringt möglichst lange gestalten, sodass man möglichst viel Werbung sieht und möglichst viel Geld verdient wird. So lässt man sich also von einem Algorithmus einer Plattform zuschütten, die nicht den Sinn hat, einem gute Inhalte zu präsentieren, die die Interessen von einem selbst verfolgen, sondern den Hintergedanken hat, einen möglichst lange auf der Plattform zu behalten.

Was kann man also zum Abschluss sagen, dass das hier nicht noch länger wird? Man sollte sich gut überlegen, mit was man wie viel Zeit verbringt, denn sonst verliert man die Kontrolle unumgänglich. Was einen sehr gut dabei unterstütz, ist keine Apps auf dem Handy zu haben, die keinen direkten Nutzen haben. Man sollte unbedingt einen Abstand zwischen sich und dem Netz schaffen. Einen Abstand, der so groß ist, dass man seine Zeit bewusst verbringt und nicht einfach nur unnötig Zeit verliert und verschwendet. Was mich an Social Media Netzwerken noch stört, werde ich in einem weiteren Beitrag erklären, denn der Kontrollverlust über seine Zeit ist nur eines von vielen Problemen.

Und damit bis zum nächsten Beitrag, ich geh jetzt eine Runde Osu! spielen, Lucy.

Das Internet wird sich verändern

In meinem letzten Post habe ich die gestern verabschiedete Urheberrechtsreform kommentiert. Das Übertragen der Haftung für illegalen Kontent an die Platformen selbst, wird unweigerlich zu einem Schwinden der individuellen Inhalte führen. Legal sind dann die meisten Sachen nicht mehr. Platformen werden schon in ihrer Grundfunktion als Inhaltsverteilungssystem ausgemerzt, denn die Hürde für Inhaltsersteller wird so hoch gesetzt, dass es für die meisten unattraktiv sein wird, sich dort eine Community zu bilden. Wenn also Inhalte, die Inhalte von Anderen zitierten oder kommentieren, von vornherein blockiert wirden, was gibt es denn für Auswege?

Eigene Website

Diese Urheberrechtsreform betrifft die Platformen an sich. Wenn man allerdings seine eigene „Plattform“ betreibt, zum Beispiel einen eigenen Blog oder eine eigene Internet-Seite, so ist man nun selbst dafür verantwortlich, dass auf seinem Blog keine urheberrechtlich geschützten Inhalte erscheinen. Sehr simpel eigentlich, sich an solche Regeln zu halten.

Allerdings ist dies nur möglich für Leute, die auch das Wissen haben, sich selbst einen Blog aufzusetzen. Und das werden wohl die Wenigsten sein, die im Internet unterwegs sind. Außerdem kostet es Geld, denn man ist nicht selbst das Produkt, sondern muss seine Website finanzieren. Unter Umständen wird das auch Einige davon abbringen, das überhaupt zu tun.

IPFS – Interplanetary Filesystem

IPFS könnte revolutionieren, was wir unter dem Internet verstehen. Traditionell lädt ein Webbrowser die Website von einem Server, der irgendwo in einem Rechenzentrum sitzt, herunter und zeigt sie ihm an. Zum Ansprechen eines Servers wird die URL (Universal Resource Locator) benutzt, zum Beispiel https://www.example.com. Das https:// steht für das verwendete Protokoll, nämlich das Hyper Text Transport Protocol (Secure). Sollte allerdings eine Website auf diesen Server verweisen und dieser ist gerade ausgeschalten oder hat eine Störung, dann zeigt einem der Browser einfach nur eine Fehlermeldung an. Dies nennt man ein zentralisiertes System und es ist anfällig am zentalen Punkt. Sollte dieser ausfallen, war’s das.

IPFS arbeitet fundamental anders. Dateien werden nicht mehr anhand ihres URLs identifziert, sondern anhand eines Hashwertes. Ein Hashwert macht aus beliebigen Daten eine Zahl, welche eindeutig diese Daten identifiziert. Dabei können keine Rückschlüsse auf die eigentlichen Daten gezogen werden. Ein IPFS Knoten speichert dann Dateien in seinem zugewiesenen Speicherplatz, sobald ihm dies angewiesen wird. Wenn man eine Website über das IPFS Protokoll aufruft, so wird der nächste bekannte IPFS-Knoten gefragt, ob der die Datei mit Hash XYZABC besitzt. Sollte dies der Fall sein, liefert er die Datei ganz gewöhnlich aus. Sollte er die Datei nicht besitzen, so fragt er alle ihm bekannten Knoten, ob diese die Datei haben. Und so weiter, bis die Anfrage irgendwann einen Knoten erreicht, der die Datei hat, der diese dann dem Anfrage-Steller sendet.

Dieses System funktioniert weitestgehend vollautomatisch, denn man kann seinem IPFS-Knoten mitteilen, eine Datei, die so und so oft in dem und dem Zeitraum abgefragt wird, auf seinem Server oder Rechner zu speichern, sodass die Anfrage direkt beantwortet werden kann, ohne sie weiterzuleiten. Wenn eine Datei also sehr begehrt ist, dann wird sie von sehr vielen Knoten gespeichert, was den Weg zwischen Client und Server massiv verkürzen kann und damit gleichzeitig das Netzwerk entlastet. So können mehrere Zehntausend IPFS-Knoten gleichzeitig eine Datei besitzt, vollkommen automatisiert, ohne davon zu wissen. Und da die Haftung erst gilt, wenn man darüber bescheid weiß, dass man gerade eine illegale Datei auf seinem Rechner liegen hat, ist dieses System vom Gesetz auch ganz schwer angreifbar. Das Einzige, was ich mir vorstellen könnte, wäre eine gesetzlich verpflichtende Liste an Hashes, die man automatisch blockieren muss. Allerdings wird jede kleine Änderung in den Metadaten der Datei den Hash völlig verändern und so ist es fast unmöglich, Material zu identifizieren. Und selbst, wenn die Identifizierung möglich ist, so stelle man sich mal eine Kanzlei oder Behörde vor, die 50.000 IPFS-Knoten, die noch gar nichts über ihre Urheberrechtsverletzung wissen, zu informieren und die Löschung zu beantragen. Viel Spaß.

Fazit

Es gibt also doch noch Hoffnung für ein Internet, das von wahnsinnigen Kontrollmaßnahmen befreit bleibt. Eigene Websiten und auch eine Platform, die mit IPFS funktioniert, wären gute Wege, um diesen Blödsinn zu umgehen. Für IPFS gibt es noch keine eindeutige Gesetzeslage und für die Blogger auf ihren eigenen Seiten gibt es keine weiteren Konsequenzen.

Man könnte hier noch das Argument anbringen, dass die Verbreitung von anderen illegalten Inhalten so deutlich vereinfacht wird und das zu mehr Krimimalität führen wird, jedoch gibt es diese Krimimalität ohne hin schon im Darknet und über andere Wege, die genau so schwer zu greifen sind. Und lieber hat man ein völlig unkontrolliertes System, als eine unnütze und kontraproduktive Kontrolle.

Danke für’s Lesen!

Politischer Kindergarten

Heute war es so weit. Abstimmung für die Urheberrechtsreform wurde abgehalten. Und sie wurde verabschiedet. Ganz recht. Von durschschnittich 50 Jahre alten „Politikern“ wurde heute über die Zukunft eines Mediums entschieden, von dem diese Generation nicht im geringsten weiß, wie es funktioniert, wie man es bedient, geschweige denn, wie man damit erfolgreich ist. Lobbyisten aller Art fanden sich die letzten Monate zusammen, um ein Gesetzesentwurf zu gestalten, der ihnen mehr Provit einbringt. Unter der Deckhaube, individuellen Künstlern / Content Creators mehr Macht über ihre Werke auf Online-Platformen zu verschaffen, wurde eine Richtline erschaffen, die nur eines im Sinne hat: Der Wirtschaft dienen soll sie.

Anfang 2018 gab es einen eher kleinen Aufschrei. Eine Petition wurde gestartet mit dem Namen „Save your Internet“. Sie hatte das Ziel, die bis dato noch in den Kinderschuhen steckende Urheberrechtsreform zu verhindern mit der Begründung, dass durch sogenannte „Uploadfilter“ die Meinungsfreiheit im Internet gefährdet wäre. Jedoch verbreitete sich diese Petition wie ein Lauffeuer und hatte innerhalb des Verlaufes von 2018 mehr als 3 Millionen Stimmen gesammelt. Damit stand sie unter einer der wenigen Petitionen, die Millionenfache Stimmen bekommen hatten auf der Seite change.org.

Um den Oktober gab es dann einen größeren Aufschrei, denn diese Reform wurde durchgewunken und kurz darauf wurden von Julia Reda englische Gesetzestexte „geleaked“, die die Artikel diese Reform beinhalteten. Hier kommt die Anwaltskanzlei Wilde Beuger und Solmecke ins Spiel. Christan Solmecke, ein Rechtsanwalt, betreibt einen YouTube Kanal, auf dem er Videos zu juristischen Themen veröffentlicht. Unter anderem aktuelle Gesetzesänderungen und auch Fragen aus der Zuschauerschaft. Herr Solmecke hat sich diesen Gesetztestext der Urheberrechtsreform einmal angesehen und durchgearbeitet. (Link dazu hier) Als digital kompetenter und gebildeter Jurist erschien ihm die Umsetzung eines solchen Textes völlig unmöglich und absolut unprofitabel für Künstler. Zu dieser Analyse verbreitete er ein Video, welches 50 Minuten lang den Wahnsinn dieses Artikels erleutert und für Normalbürgerliche verständlich erklärt.

Um es auf den Punkt zu bringen: Die Reform macht die Plattformen selbst verantwortlich für Content, der dort von Usern hochgeladen wird. Eine Verbreitung von urhebrrechtlich geschütztem Material soll schon vor dem Upload verhindert werden. Kommentare zu einer möglichen Umsetzung gibt es keine, darum schließt die Mehrheit auf einen möglichen Uploadfilter, der registriertes urheberrechtlich geschütztes Material in einer Datenbank liegen hat und das Hochgeladene damit vergleicht. Sollte eine Urheberrechtsverletzung erkannt werden, wird gar nicht erst veröffentlicht. Die Umsetzbarkeit zum Profit der Künstler ist sehr umstritten, aber dazu später mehr. Des Weiteren setzt diese Reform die Urheber über die Platformen, was an sich nicht schlecht ist, aber einen kleinen, selbstständigen Künstler gleich setzt mit einem großen Konzern, wie dem Axel Springer Verlag. Und solchen Rießen gegenüber kann man sich dann wohl kaum behaupten.

Außerdem erfordert die Reform, mit jedem anderen Urheber eine Lizenz abzuschließen, wenn man Materiel von diesem in seinem Werk verwenden möchte. Und hier fängt die Unmöglichkeit an. Wie soll denn bitte Hans Günter, der gerade dabei ist, einen neuen YouTube Kanal aufzubauen und gerade mal wenige hundert Aufrufe pro Video hat, sicherstellen, dass er die passenden Lizenzen hat für Alles, was er veröffentlich will? Angenommen, Hans Günter wäre ein Let’s Player. So müsste er mit dem Unternehmen, dass das Spiel vertreibt, über das er Videos machen möchte, eine Lizenz abschließen, bevor er das Video hochlädt, denn sonst wird es von vorn herein blockiert. Videospielpublisher werden es kaum als Verlust bezeichnen, wenn ein Let’s Player ihr Spiel seinen Zuschauern zeigt, die dadurch Einblicke in das Spiel bekommen und es unter Umständen auch kaufen. Jedoch ist es für einen YouTube, der noch gar keinen Namen hat höchstwahrscheinlich unmöglich, überhaupt einen Kontakt mit dem besagen Videospielpublisher aufzubauen, denn er wird dem Unternehmen so gut wie egal sein, so ganz ohne große Zuschauermenge.

Noch deutlich wird dieses Problem, wenn Hans Günter Ausschnitte von anderen größeren Urhebern verwenden möchte. Der Urheber darf selbst entscheiden, wer sein Materia benutzt, und wer nicht. Sollte ihm der Verwendungszweck nicht passen, darf er das Ablehnen, das ist sein gutes Recht. So könnte man als Urheber Kritik zu seinen Veröffentlichungen unterdrücken, denn obwohl das Zitatrecht existiert, wird ein Computer kaum zwischen Urheberrechtsverletzung und legitimen Zitat unterscheiden können.

Dies alles könnte dazu führen, dass auf Plattformen nur noch größere Publisher die nötigen Ressourcen haben, um sich dort zu etablieren und von dem Verdienst tatsächlich etwas zu haben.

Nun, der aktuelle Stand der Dinge ist, dass dieses Gesetz heute, am Dienstag, den 26.03.2019 verabschiedet wurde und somit der nächste Schritt die Überprüfung von Richtern ist. Somit gibt es noch eine letztes Hürde zu überkommen. Die erste Hürde wurde ja von Axel Foss heute stürmisch mit gehobenen Fäusten und einem siegessicheren Gesicht gefeiert, was eher einem Fan, der sich über das gewonnene Fußballspiel seiner Lieblingsmannschaft freut, gleicht. Absoluter Kindergarten eben. Trotz der heftigen Proteste, die sogar noch stärker waren als für das Akta-Abkommen vor einigen Jahren, gab es am Ende keine Reaktion der Politiker und die Abstimmung wurde mit ca 350 zu 250 von der Gegenseite gewonnen. Die einzige Hoffnung, die noch bleibt, ist, dass das Gesetz die letztes Station, nämlich die Überprüfung von Richtern, nicht mehr überlebt. Und wenn doch, dann gibt es immer noch Wege, frei im Internet zu Kommunizieren, aber dazu später mehr.

Ansonsten danke für’s Lesen und bis zum nächsten Mal!

Warum ich mein Handy nicht mehr mag.

Mein Handy, das absolut nutzloseste und unproduktivste Gerät, das ich besitze. – Das hätte mich niemand vor circa einem Jahr sagen hören.
Aber ja, ich fühl mich jetzt, als könnte ich das behaupten. Ich hatte schon mal so eine Phase, da hab ich den Grund, von einer gewissen Person loszukommen, benutzt, mein WhatsApp vollständig von meinem Handy zu entfernen. Und so ist es auc für die nächsten eineinhalb Jahre geblieben. Ohne WhatsApp kann man wirklich leben, ja. Obwohl zugegebener maßen, ich hatte einen iPod, auf den ich WhatsApp gehackt habe, dafür benutzt, zumindest von der Klassengruppe was mitzubekommen.

Nun mal kurz nachgedacht, wofür benutzen denn die meisten Leute ihr Handy? Eigentlich nicht unbedingt viel: E-Mails checken, was im Internet suchen, nachschauen, wann der Bus kommt, Musik hören, etc. Und natürlich Messaging und soziale Medien. Und da wären wir genau beim Problem. Abgesehen von der YouTube-App, in der wahrscheinlich auch viele schon einen großen Teil ihres Lebens verschwendet haben, gibt es da noch ganz viele andere soziale Apps, denn jedes soziales Netzwerk, das etwas von sich hält, hat eine Android und/oder iOS App. Zum Beispiel Facebook, Twitter, Instagram, Tumblr, die üblichen Vertreter eben und dann gibt es noch haufenweise messaging-Apps, wie WhatsApp, Snapchat, Facebook Messenger, Telegram, LINE, Hangouts, etc.

All das, all diese Apps, sie sind jeder Zeit aufrufbar mit nur wenigen Fingerbewegungen. Ist doch eigentlich phantastisch! Oder? Nun, es kommt wohl zu einem großen Teil darauf an, aus welchem Blickwinkel man das sieht. Sieht man es aus der Perspektive eines armen Kindes, das sich kaum etwas leisten kann und von seinem Taschengeld ein Smartphone kauft, in der Hoffnung, auf diese gewaltige digitale Welt zugriff zu bekommen, so ist es positiv zu bewerten. Denn einen Computer kann sich nicht jeder leisten, außer man weiß, wo man suchen muss bzw. an wen man sich wenden muss. Aber das ist weder etwas, das jeder weiß, noch hat jeder Lust darauf, sich dementsprechend mit der Materie auseinander zu setzen. Mit einem Smartphone kann man also mit wenig Geld Zugriff auf sehr viel bekommen, das ein Computer leisten kann. Vorausgesetzt, man hat genug Speicherplatz neben dem ganzen Bloat.

Sollte man allerding den Luxus aufweisen, einen Computer zu benutzen, sieht die Geschichte ganz anders aus. Ich persönlich habe mir mitte letzten Jahres einen Laptop gekauft, den Beitrag dazu findet ihr hier. Und mit diesem Laptop hat mein Leben in einer anderen, offenen Welt angefangen. Aber die Linux-Geschichte ist Stoff für einen anderen Beitrag irgendwann später. Wie auch immer, mit dem Besitzt eines richtigen Computers stellt sich mir die Frage: Ist das denn überhaupt profitabel, wenn man all diese Services jederzeit in seiner Hosentasche mit sich herumträgt? Meine Antwort darauf laute ganz klar: „Nein!“

Aber warum? Nun, ich zählte vor kurzer Zeit noch zu der Art an Menschen, die wirklich jede freie Minute an ihrem Smartphone verbringen. Selbst am Esstisch mit Freunden, wenn ich mich gelangweilt hab, waren meine Griffeln sofort wieder am Handy. Und was hab ich dann gemacht? Naja ganz einfach, auf Instagram rumgescrollt, Menschen geantwortet, Twitter erkundet. Bist zu einem Grad, wo ich den Leuten wirklich extrem auf den Keks gegangen bin und mich unbeliebt gemacht hab. Ist zwar schon etwas länger her, aber mich haben Freunde mal über einen kompletten Fußballplatz gejagt, um mir mein Handy abzunehmen, dass ich endlich meine Finger davon lasse, hihi. Ein anderer negativer Nebeneffekt von dieser dauerhaften Beschäftigung ist, dass man sich keine Zeit mehr zu langweilen nimmt, denn man hat ja sein Handy. Zeit zu Langweilen und Nachdenken ist die allerwichtigste, denn das braucht man zur Selbstentwicklung. In dieser Zeit denkt man über seine Aktionen nach, ein ganz wichtiger Teil, wenn man kein komplett Gedankenverlorenes Konsum-Schwein sein möchte.

Leider nehmen sich diese Zeit eben nur noch ganz wenige, weil sie gar nicht kapieren, dass sie sich diese durch soziale Medien und die Verfügbarkeit dieser an jedem Winkel der Stadt oder Wohnung einfach selbst wegnehmen. Es ist also nicht als positv anzusehen, wenn man immer sofortigen Zugriff auf diese Medien hat. Deshalb find ich Zugfahren auch so entspannend, in Deutschland hat man sowieso in den wenigsten Fällen überhaupt auf der Schiene Empfang, man ist also dazu gezwungen, sich mit Musikhören oder anderen offline-Dinge zu beschäftigen. Ob das als positiv für unsere Zeit anzusehen ist, ist wieder eine andere Geschichte, andere Länder haben das übrigens auch auf den Autobahnen weitaus besser im Griff. Aber zurück zum Thema: Ich bin kein Psychologe, darum kann ich keine richtigen Beispielen anbringen, aber an mir selbst ist mir aufgefallen, dass es mir unendlich gut tut, einfach etwas Zeit für mich zu haben. Denn ich hab, ja ihr werdet es nicht glauben, so ziemlich alles von meinem Handy entfernt, was mir ständig die Zeit raubt. Ja, selbst die YouTube App. Warum auf dem kleinen Handy schauen, wenn ich nen Fernseher und nen Laptop hab? Und da wären wir beim nächsten Punkt.

Mehr Produktivität. Darum ging es mir eigentlich grundsätzlich. Seit ich das 10 Finger System beherrsche, hat mich das Tippen am Handy schon immer angestrengt und unheimlich genervt. Ich bin einigermaßen schnell, aber am Computer mindestens 5 mal so schnell. Ist ja auch vollkommen logisch: Zwei Daumen vs. 8 Finger auf der Home-Row und die Beiden Daumen als Leertasten-Betätiger, das ist einfach schneller. Oh und was mich richtig abnervt, das ist mit einer Hand am Handy tippen. Meine Freundin macht das, ich würde mir so deprimiert nach einer Weile vorkommen, weil ich einfach keinen Text zusammenbekomme. Aber hängt wohl auch damit zusammen, mit was man sich abgefunden hat. Wenn man es gewohnt ist, auf dem Handy zu tippen, mag es wohl eine attraktive Möglichkeit sein. Aber nicht für mich.

Dann kommt noch dazu, wie sich ein Android Smartphone bedient. Ich persönlich bin immer hinter der produktivsten Arbeitsweise für mich persönlich hinterher. Und das kann ich am Smartphone definitiv nicht umsetzen. Multitasking kann man das wohl nur begrenzt nennen, das zwischen zwei Apps hin und her wechseln. Okay, ich kann dank meinem Note 3 schon seit einer geraumen Zeit zwei Programme nebeneinander aufmachen, aber auf dem kleinen Bildschirm hat man auch nichts davon, weil es wirklich eine Fummelei ist. Touch-Interfaces sind die Bedienung der Zukunft, das ist auch meine Meinung, aber bitte nicht, solange eine Tastatur und Maus besser darin sind. Also da mich mein Handy für produktive Dinge nervt, was hab ich gemacht? Naja, alles, was ich am Laptop machen kann, mach ich ganz einfach am Laptop. Ich Surfe im Internet auf einem großen Bildschirm und antworte meinen Freunden mit einer richtigen Tastatur. Außerdem kann mein Laptop noch einige Sachen mehr, die mein Handy niemals können wird. Zum Beispiel 10 Bit Video abspielen oder ein vollwertiges Desktop-Linux mit allem Drum und Dran ausführen.

Wie mir meine Smartwatch geholfen hat, von meinem Handy loszukommen

Vor geraumer Zeit hatte ich mein Handy immer angeschalten in meiner Hosentasche. Ich hatte es auf Vibration, sodass ich immer mitbekam, wenn irgendetwas war. Irgendwann ist es mir auf den Geist gegangen, jedes mal mein nicht zu kleines Handy aus der Hosentasche zu kramen und auf das Display zu schauen, ob da irgendwas ist, das wichtig sein könnte, darum hab ich mir eine Peble Smartwatch zugelegt. Einzige Anforderungen: Zeig mir meine Benachrichtigungen und lass mich die Musik am Handy steuern. Und das hat sie super gemacht. So hatte ich nicht mehr das Problem, mein Handy immer herausnehmen zu müssen, sondern nur, wenn ich wirklich jemand antworten musste. Und außerdem kann ich mit der Uhr nur sehr sehr begrenzt antworten, darum bin ich auch nicht in Versuchung, gleich sofort auch noch zu antworten. Im Gegenteil, ich hab mir sogar mehr Zeit gelassen und mit eine Antwort überlegt, bis ich mal länger Zeit hatte, um wirklich mein Handy rauszuholen. Das hat mein „Im Unterricht auf’s Handy schauen“ auf quasi null reduziert.

Tja und so war ich eben dank dieser Smartwatch weniger an meinem Handy, das ist auch anderen positiv aufgefallen. Dann irgendwann kam allerdings der Punkt, an dem ich auch meine Smartwatch auf nicht-vibrieren gestellt hab und somit nur noch informiert werde, was neu ist, wenn ich auf die Uhr schaue. Das hat auch dazu gefühlt, dass ich die Benachrichtigungen von allen Apps, von denen nichts wichtiges kommt, also alles bis auf Telegram, LINE und WhatsApp und natürlich Anrufe und Messaging, komplatt gesperrt hab, oder die App stillgelegt hab. So bekomme ich keine Benachrichtigungen, außer ich öffne die App und von den anderen erst, wenn ich dann mal auf mein Handy schaue.

Mein Laptop kann das besser!

Egal was es ist, ist benutze viel lieber diesen Laptop hier dafür, anstatt mich mit meinem Handy rumzuschlagen. Da hab ich alles drauf, damit kann ich alles machen, damit bin ich viel Produktiver, als mit meinem Smartphone. Zudem hab ich jetzt nicht mehr den Drang, ständig auf mein Handy zu schauen und hab es geschafft, mich selbst von den sozialen Medien auf meinem Handy zu entfernen. Denn was ich am Handy machen kann, kann ich am Computer ein vielfaches besser. Twitter, Instagram, WhatsApp, LINE, alles macht mehr Spaß mit einem großen Bildschirm und ’ner richtigen Tastatur. Und darum bin ich dabei geblieben. Mit ist mein Verhalten einfach negativ aufgefallen, und ich wollte etwas daran ändern, darum hab ich diese Schritte bewusst und unterbewusst gemacht.

Was ist mein Handy jetzt noch?

Nicht mehr viel. Ich werde gelegentlich über wichtige E-Mails informiert, höre Musik damit, schaue, wann mein Bus kommt, machte Fotos damit. Gucke meine Hausaufgabenliste an (manchmal, hehe) und wenn es gar nicht anders geht, dann antworte ich auch damit mal auf Nachrichten. Aber ich nutze nur noch ganz ganz selten Twitter darauf, noch seltener Instragram und etwas öfter Snapchat. Aber meistens ist es nur ein WhatsApp Web Server für alle Fälle. Ich werde Twitter und auch Instagram von meinem Handy entfernen und auf meinem iPod installieren. Den hab ich meinstens eh rumliegen. Das bedeutet, dass ich nicht mehr auf Direktnachrichten in Instagram antworten kann und auch nicht mehr zugeschickte Posts empfangen kann, weder kann ich dann was posten. Aber das ist mir recht, ich hab das letzte halbe Jahr auch so gut wie ohne gelebt, das war nämlich der Test, wie weit ich davon weg kann. Fazit: Weit genug, um es zu deinstallieren. Und Twitter kann ich notfalls immer noch im Browser nutzen, aber das setzt die Hürde, drauf zuzugreifen höher, als die App am Startbildschirm zu haben.

Fazit und Ausblick auf weitere verwendte Themen

Im Großen und Ganzen hat mit mein Laptop dabei geholfen, zu erkennen, was produktives Arbeiten ist und was reine Zeitverschwendung ist. Versteht mich nicht falsch. Ich mag es immer noch, soziale Netzte zu benutzen. Aber ich benutzte sie jetzt bewusster. Nicht mehr, wenn ich gerade lange Weile hab, sondern wenn ich explizit ein soziales Netzwerk nutzen will. Das hat mir dabei geholfen, von meinem Handy loszukommen und mehr zu mir selbst und dem, was ich eigentlich machen will, zu finden. Zum Beispiel hätte ich mich niemals in dieser doppelten Freistunde hingesetzt und einen Blogpost geschrieben, sondern hätte die Zeit am Handy vertrödelt.

Allerdings sind die oben genannten Gründe nicht die einzigen Gründe, aus denen ich mich von meinem Smartphone und sozialen Medien entfernen will. Aber das hatte in diesen eineinhalb Stunden keine Zeit, vielleicht in der nächsten doppelten Freistunde, in der mein Spanisch in der Früh ausfällt, werde ich diese Gesichtspunkte ausschreiben. Luke Smith hat mich mit seiner Philosophie dazu angeregt, mir Gedanken über meine Zeit und mein Nutzung von sozialen Medien zu machen. Weitere Themen werden Privatsphäre und Tracking, Warum ich denke, dass soziale Medien unsere Meinungen radikalisieren und wie ich mein Leben in Zukunft in Anspruch nehmen will, sein. Ich hoffe dieser Post war halbwegs Ansprechend und nicht einfach nur ewiges gehate auf mein (blödes) Smartphone und deswegen unattraktiv zu lesen. Nun denn, bis zum nächsten Post, der hoffentlich bald kommt, Lucy.

Direct Stream Digital vs. PCM

Was man an digitalem Audio verbessern könnte? So einiges. Nachdem man nun sagen kann, dass die schlimmste Phase des Loundness Wars überstanden ist und somit eigentlich nur noch Pop Musik davon betroffen ist, kam man auf die Idee, einen neuen Standard zum speichern von Digitaler Musik zu entwickeln. „Warum eigentlich? CDs funktionieren doch wunderbar!“, könnte man da sagen. Aber nein, das tun sie nicht.

Als digitales Audio so die ersten Anfänge hatte, da war musste man ganz schön tief in die Tasche greifen, um ein ordentliches Gerät zu bekommen. Warum? Nun, das hat mehrere Gründe. Zum einen, weil es bei 16 Bit Audio einfach unglaublich schwierig ist, so ca 65 tausend unterschiedliche Spannungen so genau zu treffen, sodass es sich auch noch gut anhört und zum anderen, weil beim Aufnehmen ein ziemlich guter Filter gebraucht wird, um die höheren Frequenzen davon abzuhalten, in das Innere eine ADC (Analog Digital Converter) zu kommen und für unangehnehmes Alising zu sorgen.

So hat man also zwei große und wichtige Faktoren, die beachtet werden müssen, wenn man ein PCM Signal in eine saubere elektrische Welle umwandeln möchte oder eben umgekehrt.
Sowohl ein guter Filter, als auch ein 16 Bit DAC sind unglaubich schwierig um standartmäßigen Design günstig herzustellen und hier kommt PWM (Pulsewidth Modulation) ins Spiel. Wie trifft man also 65 tausen unterschiedliche Spannungen korrekt? Genau, gar nicht. Das ist die Lösung. Wer weiß, wie ein PWM signal funktioniert, der kann sich schon vorstellen, wie das aussieht. Denn man macht aus den 16 Bit ganz einfach 4 Bit. Bleiben noch 16 Spannungen. Das ist einfach zu machen. Aber wie kann man jetzt damit ein 16 Bit Signal ausgeben? Nun, man schaltet diese 4 Bit einfach auf einer unglaublich hohen Frequenz und benutzt PWM, um Spannungen zu erzeugen, die nicht direkt von dem 4 Bit DAC erzeugt werden können, einfach, indem man schneller oder weniger schnell das Signal ein und auschaltet. Wer allerdings weiß, wie ein PWM Singal aussieht, der weiß auch, dass dadurch ein Haufen Nebenfrequenzen entsteht, der mit einem Filter, der diese nicht durchlässt, ganz einfach behoben werden kann. Voila, man hat die billigste Version eines PCM DACs, die sich heutzutage in so ziemlich allen Geräten finden lässt. Einfach zu produzieren, billig zu produzieren und klingt erstaunlich gut.

Und was ist dann DSD?

Naja, dieser 4 Bit-hybrid DAC ist im Endeffekt eine verkomplifizierte Version eines DSD DACs. Der Erfinder von DSD hat sich nämlich gedacht: „Hey, was wäre denn, wenn wir einfach nur eins von diesen vier Bits nehmen und komplett mit dem PWM Prinzip arbeiten?“ Und genau das wurde gemacht. Man hat ganz einfach ein einziges Bit, das extrem schnell geschalten wird, im Bereich von mehreren Megahertz. Damit kreiert man einfach ein PWM Signal, dessen Level man dann zwischen 100% und 0% Spannung regelt und am Ende hängt man noch einen Filter dran, der einfach diese extrem hohe Frequenz herausfiltert. Und weil Filter für solche Sachen sehr einfach sein können, da die Frequenz so hoch ist, reicht es in dem meistens Fällen, eine Schaltung mit einem Kondensator zu benutzen.

Und funktioniert das gut? Oh ja! Sehr gut sogar! Es gibt von DSD noch einige andere Formate, die jeweils die Grundfrequenz verdoppeln, also noch genauer sind und so ziemlich alle höher klassifizierten DACs verwenden am Ende DSD, um das Signal auszugeben, weil man damit bei gleichen Kosten eine viel höhere Genauigkeit erreichen kann. „richtige“ PCM DACs gibt es meines Erachtens nicht mal mehr zu kaufen.

Klingt gut! Gibt’s auch Nachteile?

Oh ja, die gibt es. Nämlich bei der Verarbeitung von solchen Signalen. Direct Stream Digital eigent sich zwar hervorragend zur kostengünstigen und hochqualitativen Digitalisierung von analogen Signalen und ist auch spitze in der Reproduktion solcher. Was man damit allerdings nicht machen kann, das ist Audio verarbeiten. Um ein DSD Signal im Nachhinein zu bearbeiten (Postprocessing, Mastering, etc.) ist es unumgänglich, dieses Signal zuerst in PCM zurück zu wandeln, da man sonst absolut keine Möglichkeit hat, das Signal zu verändern. Zumindest sagen das Leute, die mit so etwas arbeiten und Ahnung davon haben sollten.

Und was ist dann mit SACDs? Sind das dann unveränderte Aufnahmen von der Performance? Nein, dann genau hier ist der Haken. SACDs werden zwar als Direct Stream Digital Medium verkauft, allerdings kann man zu einem Großteil davon ausgehen, dass die Aufnahme immernoch mit PCM gemacht wurde, das dann bearbeitet wird und anschließend nach DSD convertiert wird. Und dieser Prozess ist nicht lossless.

Fazit und Ausblick

DSD eigenet sich wunderbar zur Aufnahme und Reproduktion von analogen Audiosignalen, jedoch ist es nicht geeignet, um in einem Tonstudio das Audio anschließend zu mastern, die einzige Option dafür ist PCM. Dass man dabei das Audio von DSD nach PCM konvertieren muss, ist unumgänglich, aber ganz ehrlich: Das macht doch sowieso jeder PCM DAC schon so oder so, warum sollte das also interessieren? Man nimmt ganz einfach in einer extrem hohen Bitrate in DSD auf, konvertiert es dann mit einem sehr guten Algorythmus für eine sehr hohe Bitrate in PCM. Zum Beispiel von DSD512 nach PCM 32 Bit und 786kHz. Das ist zwar übertrieben hoch, aber dann kann mit mit dem Audio problemlos Arbeiten, ohne auch nur ein Stückchen davon zu merken, dass diese Konvertierung nicht verlustfrei ist, denn sie ist nahezu verlustfrei.

Was man hier auch noch anbringen sollte, das ist die Existenz von Upsampling und Downsampling Algorythmen wie dem von SoX. Denn ich denke nicht, dass auch nur irgend ein analoger Filter so gut sein kann, wie dieser digitale. Dann kann man das Problem mit den extrem hohen Frequenzen nämlich einfach digital lösen. Man filtert sie digital heraus. Dann braucht man keinen extrem teueren analogen Filter, um einen teueren ADC zu betreiben, sondern man nimmt einfach einen günstigen Filter – je höher die Lowpassfrequenz, desto günstiger sind diese Filter nämlich auch – und nimmt einen ADC, der eine sehr hohe Abtastrate hat. Jegliches Alaising kann man schließlich digital verhindern, wenn man auf die üblichen 44,1kHz gehen möchte für eine einfache CD.

Gleiches Spiel beim Endbenutzer: Wenn der DAC sowieso alles in DSD konvertiert, um es abzuspielen, dann kann man auch gleich einfach einen Prozessor das DSD Signale berechnen lassen, wenn man davor noch Dinge, wie einen digitalen Equalizer, schalten möchte. Sonst müsste man das ganze ja doppelt machen: DSD nach PCM → DSP in PCM → PCM nach DSD im DAC → DAC. So hat man nur: PCM → DSP in PCM → PCM nach DSD → DAC.

Und ob man’s glauben will oder nicht, manchmal haben Minimalisten einfach Recht, denn eine Vereinfachung des Signalwegs wird auch unweigerlich zu einer Verbesserung der generellen Qualität führen, zumindest bei den Endgeräten. Das sollte logisch verständlich sein. Genau deswegen klingt ein 2-Way Lautsprecher nämlich auch besser, als ein 3-Way Lautsprecher, wenn sie genau so viel kosten, weil der 2-Way Lautsprecher logischer Weise ein einfacheres Design hat und wenn das gescheit gemacht wird, hat man von dem 2-Way Lautsprecher mehr.

Also nochmal ganz kurz:
– Umwandeln zwischen analog und digital: DSD
– Bearbeiten von Digitalem: PCM

Wollte das einfach mal loswerden, bis zum nächsten Beitrag!

Eigener matrix Server on ease

In diesem Post werd ich beschreiben, wie leicht (oder was es braucht) es ist, einen matrix server aufzusetzen. Genauer gesagt einen Synapse-Server.

Was ist matrix überhaupt

Bei matrix handelt es sich nicht um ein bestimmtes Programm, sondern mehr um eine spezifikation, wie die Client-Server Kommunikation für Kommunikation im Internet generell, also Sprach und Videotelefonate oder auch Chaträume, funktionieren soll. Man kann es als eine Art großes Upgrade zu IRC sehen. IRC ist auch auch kein Programm, sondern nur das Protokoll. Und es gibt viele unterschiedliche Client- und Server-Programme
Aber gut, wer diesen Blog-Post per Suchmaschine gefunden hat, der wird schon wissen, was das ist, also werd ich auch nicht genauer ins Detail gehen.

Funktionsweise

So, also wie funktionert das? Im Grund genommen besteht die installation aus zwei Komponenten: Dem Synapse Server an sich und einem Webserver, mit dem man einen Proxy für die korrekte SSL zur Verfügung stellen muss.
Ich werde beim Installations-Part näher auf mein Setup im speziellen eingehen, was ich schon mal in einem (noch nicht fertigen) Blog-Post erklärt habe.

Installation

Gliedern kann man das ganze in drei Punkte:

  1. Installation und Vorwissen für Snynapse
  2. Einrichten der korrekten SSL-Verschlüsselung mit Let’s Encrypt (Webserver-Proxy)
  3. Final touch mit funktionierender Federation

1. Installation und Vorwissen für Synapse

Synapse ist die eigentliche Server Komponente. Bezogen werden kann es unter Debian ganz einfach über eine Paketquelle, die hinzu gefügt werden muss. Genauere Anweisungen dazu hier. Danach lässt sich Synapse wie jedes andere Paket updaten und verwalten.
Wichtig bei der Installation ist jedenfalls, dass man in den Dialog für den Server-Namen auch wirklich die Domain eingibt, unter der der matrix-server anschließend erreichbar sein soll. Also für mich war das matrix.asagi.moe und ich habe asagi.moe eingegeben. Warum das kein großes Problem war, dazu später mehr.
Gut, hat man das so weit am Laufen, geht es weiter mit dem bearbeiten der der config Datei. Dort ist angeben, dass auf IPv6 und IPv4 Adressen gehört werden soll. Ich hatte jedoch das Problem, dass Synapse einfach die IPv4 Adressen nicht gebunden hat und dann nur einfach die gleichen Ports auf IPv6 auszumachen, auch bei Deaktivierung von IPv6 an allen Interfaces. Lösen konnte ich das Problem dann damit, einfach die IPv6 Bindings aus der config-Datei zu löschen und voila, correct bindings accomplished.
Wenn verifiziert ist, dass Synapse auch auf den korrekten IP-Adressen und Ports hört, kann man weiter machen mit dem Webserver

2. Einrichten der korrekten SSL-Verschlüsselung mit Let’s Encrypt

Wer schonmal einen Webserver mit Zertifikaten von Let’s Encrypt ausgestattet hat, der wird bei diesem Part keine Probleme haben, allerdings sollte man das vorher schon mal ausprobiert haben und das Prinzip verstanden haben, bevor man gleich mit Proxying anfängt.
Synapse bindet zwei Ports, das sind einmal der Port 8008 für normale Verbindungen (um den es hier auch geht) und der federation Port 8448, um den es im nächsten Punkt genauer geht. Im Gegensatz zum Port 8448 ist der Port 8008 allerdings nichts standardmäßig SSL-verschlüsselt. Und das direkt mit Synapse umzusetzen ist etwas unkomfortabel, da man jedes mal die Zertifikate neu in die config Datei übertragen müsste, wenn man ein neues beziehen muss von Let’s Encrypt. Empfholen wird daher das einrichten eines Web-Proxys mit ngnix oder Apache. Ich habe hier zu Apache gegriffen, da das erstens mein eigentlicher Webserver ist und zweitens ich mich mit Proxying und generell der Konfiguration schon auskenne unter Apache.
Mein Virtual Host für diese Anwedung sieht also folgendermaßen aus:

Listen 443
<VirtualHost *:443>
   DocumentRoot /var/www/matrix
   ServerName matrix.asagi.moe

   SSLEngine on

   ProxyPass "/" "http://localhost:8008/" retry=3
   ProxyPassReverse "/" "http://localhost:8008/" retry=3

   Include /etc/letsencrypt/options-ssl-apache.conf
   SSLCertificateFile /etc/letsencrypt/live/matrix.asagi.moe/fullchain.pem
   SSLCertificateKeyFile /etc/letsencrypt/live/matrix.asagi.moe/privkey.pem
</VirtualHost>

Jetzt nur noch den Virtual Host in Cloudflare eintragen, Zertifikate holem mit certbot und ausprobieren, ob unter https://matrix.asagi.moe irgendwas zu erreichen ist. And sure enough, it works. Die letzten drei Zeilen für die Zertifikate sind allerdings von certbot autogeneriert.
Wunderbar, was jetzt allerdings noch nicht funktioniert, ist das federating zwischen zwei oder mehr Servern, aber dazu mehr im nächsten Part

3. Final touch mit funktionierender Federation

Hier kommen wir wieder zu dem Fehler, den ich am Anfang gemacht hab und dem Port 8448.
Der Port 8448 heißt deswegen federation Port, weil auf ihn andere Server, eben keine Clients, verbinden. Er ist standartmäßig SSL verschlüsselt mit einem bei der Installatin automatisch generierten Zertifikat, also darum muss man sich nicht kümmern. Es wird auch empfohlen, diesen Port nicht extra mit einem Proxy zu versehen.
Was ich also gemacht hab in meiner Situation war, einfach diesen Port für die ganz Hauptdomain asagi.moe freizugeben. Also ab in das Menü der FritzBox und den Port frei geschalten.
Okay federation klappt nun, allerdings nur zum Teil, nämlich kann man von anderern Servern keine User auf dem Homeserver asagi.moe direkt kontaktieren, das geht nur umgekehrt, etwas unpraktisch, dachte ich mir.
Denn standartmäßig versuchen Clients, den Server Namen einfach als Domain aufzulösen und weil das auch die einfachste Version ist, habe ich mich dafür entschieden, das zu machen. Gebraucht hierfür wird ein SRV-DNS-Record für _matrix._tcp.asagi.moe, der auf asagi.moe:8448 zeigt. Dies sagt dem Client, dass der Service matrix auf der domain asagi.moe unter dem Port 8448 zu erreichen ist.
Und ja, das ist wirklich alles, was man braucht, wenn man mit Virtual Hosts und Cloudflare arbeitet, denn jetzt können mich auch Leute von anderen Servern finden.

Final thoughts

Einen Synapse Server aufzusetzen ist eine interessante Sache, wenn man anderen Messengern und Diesten nicht mehr so ganz traut und einfach mal etwas Service-Unabhängiges zu haben, das einfach funktioniert.
Matrix an sich finde ich eine wirklich sehr sehr gute Idee. Man sollte einen Standard haben für die Kommunikation im Internet und Nutzer von Telegram sollten Nutzer von WhatsApp einfach erreichen könnne. Warum ist so was nicht einfach möglich? Weil jeder seinen eigenen Standard benutzt, das soll sich mit matrix ändern. Und das untersütze ich sehr gern.
Wert also auch ein Hobbyadmin ist und in server Freizeit eigene Dienste auf seinem Server ausprobieren möchte, eine Kombination von Synapse und dem Client Riot ist eine super Alternative zu properitären Dingen, wie TeamSpeak oder Discord. Es ist etwas kniffelig zu installieren und setzt einige Dinge voraus, aber wenn einem kniffeln und neue Sachen lernen nichts ausmacht, ist das eine wirklich tolle Sache.
Zum Abschluss dieses Posts möchte ich noch anmerken, dass es unbedingt einfacher gemacht werden muss, so einen Webserver zu installieren. Ein großer Schritt in diese Richtung wäre das Zusammenarbeiten mit Let’s Encrypt, sodass Synapse sich selbst die Zertifikate für eine einfachere Einrichtung holen könnte. Und unbedingt eine Möglichkeit, das Verhalten von Synapse auch über eine Weboberfläche zu steuern, denn Anfänger lieben so was.
Jedem der dieser Post den Ansport gegeben hat, das mal auszuprobieren, wünsch ich viel Spaß und Erfolg und ich lass wieder von mir hören in einem weitern Post.

Asagi-Subs

Viele von euch werden das Problem kennen: Die Anime on Demand Seiten haben zu schlechte Qualität, die BluRays in den Regalen sind zu teuer und auch nicht unbedingt gerade das beste vom Kuchen, was Videoqualität angeht, die Untertitel sind schlampig übersetzt und es gibt weder Farbsubs noch Karaoke.

Das soll jetzt ein Ende haben!

Ich präsentiere Asagi-Subs! (über den Namen liese sich später diskutieren)
Wir wollen eine Subgruppe sein, die diesem ganzen Blödsinn ein Ende bereitet. Wie soll das funktionieren? Nun, Es gibt schon sehr viele extrem gute Subgruppen da draußen, die seite Jahren fleißig Subben und das in exzellenter Qualität. Sie stecken so viel Mühe und Herzblut rein, dass das Endergebnis einfach nur gut werden kann. Und hier die Idee: Warum sollte man diesen wundervollen Gruppen also Konkurrenz machen, wenn sie ihre Arbeit so gut machen und wahrscheinlich auch besser als jeder Verlag oder jedes irgendwas, das das kommerziell macht? Anstatt sie dazu zu zwingen, ihre Fansub-Releases aus dem Netz zu nehmen, weil man als großer Verlag gerade die Lizenz dafür gekauft hat, könnte man sich ihnen doch einfach anschließen und ihnen ein Angebot machen, das folgerndermaßen aussehen könnte:

Hallo Fansubgruppe XY, wir bieten euch hiermit an, an unserem Release zu Anime XYZ mitzuarbeite. Ihr bekommt jegliches Videomaterial oder andere Quellen kostenlos gestellt und könnt einen exzellenden Untertitel für diesen wundervollen Anime schaffen. Selbstverständlich würden wir euch am Gewinn mit einem gewissen Prozentsatz beteidigen, mit dem ihr sehr leicht eure Unterhaltskosten decken könnt und vielleicht sogar einiges übrig bleibt. Wir würden uns über eine Rückmeldung und eventuell auf eine gute Zusammenarbeit mit euch freuen.

Das wäre jetzt ein Beispiel für einen neuen Anime, den eine Gruppe plan, zu subben. Wenn eine Gruppe bereits Untertitel für eine Serie hat, würde das für die Gruppe sogar bedeuten, dass sie eventuell gar nichts mehr machen muss oder nur geringfügige Änderungen vornehmen muss.

Wenn eine Subgruppe einwilligt, dann entstehen folgende Bedingungen:

  • Die Weiterverbreitung in voller Qualität muss eingestellt werden
  • Die Weiterverbreitung einer Version in 480p mit im Video eingebrannten Untertiteln und Logo von Asagi-Subs ist erlaubt und sogar erwünscht, jedoch muss an bestimmen Stellen (wie nach dem Opening oder nach dem Ending) ein Clip im Video sein, der auf Website von Asagi-Subs hinweist und darüber aufklärt, dass ein Download in voller Qualität für wenig Geld (dazu später mehr) dort verfügbar ist und man die Gruppe, von der man den Anime gerade schaut, damit unterstützen würde
  • Vor der Weitergabe der Untertitel an Asagi-Subs ist unbedingt ein Quality-Check durchzuführen
  • Von Asagi-Subs bereitgestelltes Material darf unter keinen Umständen weiter veröffentlicht werden, dies kommt einer Urheberrechtsverletzung gleich und wird verfolgt

Das ist auch schon Alles.

Asagi-Subs wird auf deren Website mehrere Möglichkeiten anbieten, die lizenzierten Animes anzuschauen:

  • Als hochqualitativer Stream für Geräte mit DRM Unterstützung; ähnlich wie Netflix, nur dass hier sehr viel Wert auf die Videoqualität gelegt werden wird
    • Anschaubar auf Smartphones und Smart-TVs mit entsprechender App oder im Browser mit HTML5 und DRM Unterstützung
    • Selbstverständlich ermöglicht die App den Download einzelner Folgen oder ganzer Serien zum späteren Ansehen
  • Als verschlüsselter Download für Computer
    • Abspielbar auf jeder Platform, die von dem Media Player MPV unterstützt wird
    • Ein entsprechendes MPV-basiertes Programm wird entwickelt werden und der Source Code wird einsehbar sein
    • Das Programm wird ihre derzeitige MPV-Konfiguration mit allem möglichen Funktionen unterstützen

Das Businessmodell wird folgendermaßen aussehen:

  • Es gibt die Möglichkeit einzelne Serien für einen günstigen Preis zu kaufen, je nach dem welche Qualität, orientiert wird sich hier an anderen Video on Demand Diensten
  • Außerdem besteht die Option sich für ein Monats- oder Jahresabbo für verschiedene Videoqualitäten anzumelden
    • Mit jeder Option besteht die Möglichkeit zum Download und zum Streamen
  • Wenn deutsche Audiospuren verfügbar sind, wird über ein BluRay-Release nachgedacht

Was Asagi-Subs erreichen will:

Wir wollen bezahlbare Animes für Jeden, der einfach nur legal Anime schauen will und zwar auch diese, die es noch auf keiner Anime on Demand Seite gibt oder auch für Enthusiasten, die jeden noch so kleinen Video-Fehler bemerken und bemängeln (wie mich). Ziel ist es, Fausubgruppen finanziell zu unterstützen und gleichzeitig den schlechten, kommerziellen Untertiteln ein Ende zu bereiten. Es soll eng mit den Encodern zusammen gearbeitet werden, um eine gute Kompatibiltät mit unseren Systemen zu ermöglichen und gleichzeitig eine Spitzen-Videoqualität zu erreichen, die womöglich sogar besser als das BluRay-Material aus Japan ist. Und nicht nur mit den Encodern soll gute Zusammenarbeit stattfinden, sondern mit dem gesamten Team einer Fansubgruppe um am Ende ein Release zu haben, auf das man stolz sein kann, dass es bei Asagi-Subs online ist. Übrigens wird sehr stark darauf geachtet werden, die Fansubgruppen nicht in den Schatten zu stellen. Es wird in den Credits, auf der Seite selbst und später auch auf den BluRays zu lesen sein, welche Fansubgruppe(n) an diesem Release beteidigt war(en). Dazu zählt auch, welche einzlenen Leute, was genau gemacht haben.

Wir sind sehr offen für Kritik und Vorschläge von Leuten, die mehr Ahnung und Skill haben in den angesprochenen Teilgebieten, als die eine Person, die zum Zeitpunkt der Veröffentlichung dieses Beitrages Mitglied von Asagi-Subs ist.
Außerdem ist jede Hilfe, die Oben genannten Ziele und kriterien zu erfüllen, sehr willkommen, denn eine Person allein kann das alles gar nicht schaffen.

Bitte schreibt in die Kommentare, wenn ihr einen Disquis Account habt, oder kontaktiert mich per Discord oder Twitter DM. Ich freue mich auf Kommentare oder Nachrichten,

Lucy.

Ein ungeschliffener Diamant

Sie funkelt nicht. Sie ist trüb, trüb wie ein warmer See im Sommer. Undurchsichtig und alles andere als transparent, transparent wie ein Laken. Ein Laken wehend im Wind, im Wind, der Sie davon weht. Sie, das Laken. Davon weht und antreibt. Von der Allgemeinheit getragen. Dem Strom der Menschen, dieser Menschen, die als allgemein gelten. Jedoch wendet Sie sich, dreht das Laken senkrecht zum Wind, dass Sie nicht mehr getrieben wird, wie alle anderen. Schottet sich ab vom Wahnsinn der Gesellschaft. In einem Labyrinth aus Büchern, das sich nennt Bibliothek. Einem Ort der Ruhe und Entspannung. Entspannung von dem Wahnsinn, der einem tagtäglich unterkommt.

Jedoch verbirgt sich im Inneren etwas Geheimnissvolles. Im Inneren des Lakens, das sich senkrecht zu dem Wind stellt. Etwas, das man nicht sofort sieht, denn es ist verborgen. Etwas, das man suchen muss, denn es ist versteckt. Es ist ein Gefühl, das sich mit nichts vergleichen lässt. Der Versuch, es zu beschreiben, endet in Kopfschütteln und Verzweiflung. Denn eigentlich wollte es nie gefunden werden, dieses Gefühl. Es versteckt sich weiter im Inneren des Lakens. Wie der Duft von frischer Wäsche, den man aus den Kleidern schütteln muss, so muss man dieses Gefühl aus Ihr heraus schütteln. Denn für Sie selbst ist es zu schwer. Sie lernte es nie, damit umzugehen. Wie ein ungeschliffener Diamant, der nie lernte zu funkeln. Das ist dieses Mädchen.

Lucius Terembis am 12.07.2018 irgendwann in der Nacht

Neuer „Daily Driver“ – Dell XPS 13 9370

Endlich ein richtiger Laptop

Wie dem Titel dieses Posts leicht zu entnehmen ist, geht es hier um den Dell XPS 13. Genauer gesagt, warum genau dieses Modell und um eine kleine Panne seitens Dell.

Ja, warum denn genau der?

Angefangen hat es eigentlich damit, dass jemand in meiner Klasse sich einen nigelnagelneuen Dell XPS 15 geholt hat mit fast voller Ausstattung und ich mich dann immer mehr mit Laptop beschäftigt habe. Ich wollte sowieso schon länger einen Laptop kaufen, einfach weil mir klar war, dass ich für die Uni später einen brauchen werde. Ich wollte auch einfach mal ein Gerät haben, das ich überall mit hin nehmen kann und mit dem ich alles machen kann, was ich brauche.
Dabei hab ich drauf geachtet, dass ich ein Modell kaufe, das auf der einen Seite genug Performance für meine Ansprüche hat und auf der Anderen einen dicken Akku. Wäre ja doof, wenn man die ganze Zeit an die nächste Steckdose gebunden wäre. Wichtig war auch, dass der Laptop eine gute Kompatibilität mit Linux hat, denn mit Windows hab ich schon lange abgeschlossen.
Und nachdem dann dieser Jemand aus meiner Klasse sich den großen angschafft hat, konnte ich nicht widerstehen und hab dann auch festgestellt, dass es durchaus Sinn machen würde, den Laptop früher zu kaufen, als eigentlich geplant.
Geplant war nämlich, dass ich mir einen Laptop für die Schule zu meinem 18. Geburtstag kaufe, mit dem ich dann in der Schule mitschreiben kann, sodass ich für die Universität schon geübt und gerüstet bin. „Ja und warum nicht gleich dieses Schuljahr kaufen und für die Oberstufe verwenden?“, war der Gedanke.
Noch ein kleines Nebenargument war, dass das Gerät Thunderbolt 3 hat, sodass ich spätere Erweiterungen leicht durchführen kann. Traum-Setup wäre zum Beispiel, nur diesen Laptop zu haben und dann einfach eine eGPU anzuschließen und dass ich damit meine komplette vorhandene Peripherie am Schreibtisch mit einem Kabel mit dem Laptop verbinden kann.

Die Geschichte vom Ersten Tag

Endlich gekauft, sollte er an einem Freitag kommen, gekommen ist er dann am Dienstag vor diesem Freitag, einsatzbereit war es allerdings erst wieder so richtig am Freitag. Dazu gleich mehr.
Ich hab mich also riesig gefreut, dass endlich mein neuer Laptop, den ich für die nächsten paar Jahre haben werde, angekommen ist. Ausgepackt, im Lieferumfang war nur ein USB-C zu USB 3.1 Kabel und ein USB-C Ladekabel und bisschen Papier Kram. Sehr Minimalistisch, aber kennt man ja so heutzutage.
Vorab, ich hatte schon einen Plan, was mit dem neuen Laptop dann gemacht wird, der sah folgendermaßen aus:

  • Windows einrichten
  • BIOS-Update machen
  • Windows auf externe Festplatte kopieren
  • Interne NVME-SSD löschen
  • Manjaro Linux (aka Arch-Installer) installieren

Nun, an jenem besagten, erfreuten Dienstag konnte ich gerade mal einen der fünf eigentlich echt einfachen Punkte abarbeiten.

Die Panne

Da hatte ich also das BIOS-Update hinter mir, war wieder in Windows, wollte die Installation von Manjaro Linux anfangen. Um jedoch ein Windows fremdes Betriebssystem auf einem von diesen neuartigen Laptops zu booten, muss man im UEFI-BIOS einige Änderungen vornehmen. Nämlich einmal die Secure-Boot-Optionen ausschalten und alle Keys löschen und Thunderbolt-Boot anschalten, sofern man von nicht nur einem der drei USB-C Anschlüsse booten möchte.
Hab ich also alle besagen Änderungen im BIOS durchgeführt und den Laptop neugestartet, wurde ich von Windows aufgefordert, den Bitlocker Schlüssel einzugeben, dass es die Bitlocker Partition wieder entschlüsseln kann. Und noch während ich den Schlüssel auf dem Handy rausgesucht habe, ging der Laptop einfach aus.
Ohne Vorwarnung, ohne Gemuckse, ohne nichts, einfach aus.
„Wird wohl ins Standby gegangen sein oder so.“, hab ich mir gedacht. „Vielleicht ist er ja auch ganz abgestürtzt oder so.“, hab ich mir gesagt, während ich mit allen möglichen Versuchen probiert hab, das blöde Teil wieder anzubekommen. Aber nichts. Einfach nichts. Abstürzen lassen, wieder anmachen, nichts. Nichts ging mehr!
Total entsetzt, aber trotzdem ruhig ist mir aufgefallen, dass die Lade-Status anzeige ein komisches Muster blinkt. zweimal Orange, einmal Weiß Und wenn man auf der Dell-Support Seite nachschaut, was das bedeutet, stellt sich heraus, dass es sich hier um einen Fehlercode handelt. Und zweimal Orange, einmal Weiß bedeutet CPU-Fehler. „Witzig.“, dachte ich mir, „sehr sehr witzig …“ Das kann ja wohl nicht sein, dass der Laptop gleich am ersten Tag nach -ohne Witz- zwei Stunden an Benutzung einfach so kaputt geht.

Kontakt mit dem Support

Weitere Zehn Minuten vergingen, in denen ich vesuchte, das irgendwie selbst zu retten. Aber ohne Erfolg. Also habe ich ein Support Ticket beim Dell Support aufgemacht und mein Problem geschildert. Weil ich aber sehr ungeduldig war, – hab mich auch oft genug verschrieben gehabt beim Tippen von der Nachricht – hab ich dann nach einer guten Stunde direkt beim Support angerufen. Nach ein paar Leuten und Blechboxen, die mich gefragt haben, was ungefähr mein Problem sei und mich mit meiner Support und Ticket Nummer identifiziert haben, hatte ich letzen Endes einen Typen an der Leitung, der mit mir eine Fehleranalyse durchgegangen ist und mir am Ende drei Optionen peräsentiert hat:

  1. Zurückgeben, das Geräte war ja nur 5 Tage (geht vom Kaufdatum aus) alt und ich hätte die 14-Tägige Frist in Anspruch nehmen können
  2. Einschicken, ist ja offensichtlich ein Garantie Fall
  3. Ein Techniker kommt und repariert das Gerät vor Ort mit passendem Ersatzteil, weil Premium Support

Erstens: najaaa, dauert dann wahrscheinlich ewig und ist sehr kompliziert.
Zweitens: „Das dauert zwei bis drei Wochen“, oh nein.
Drittens: Da war ich selbst überrascht, dass dieser Laptop premium Support hat und, dass es so was überhaupt für Privatkunden gibt. Aber da scheint Dell den guten Ruf für deren Support wohl zu halten. Nicht mal Apple bringt so was. Aber die machen ja zur Zeit sowieso nur Blödsinn in der Richtung meiner Meinung nach. Siehe hier und hier. Also kurzum hab ich natürlich die dritte Variante genommen. Ausgemacht wurde dann, dass der Techniker möglichst früh und egal zu welcher Zeit kommen kann, da ich Ferien habe/hatte.

Die Reparatur

Am Tag darauf war eine E-Mail gekommen, in der ein Termin für den Support aufgeführt war: Donnerstag Vormittag. Also das schonmal echt flott und schnell, kann man nichts sagen.
Am Donnerstag vormittag entdeckte ich dann einen verpassten Anruf um viertel vor 9 von einer meinem Handy unbekannten Nummer. Zurückgerufen stellte sich heraus, dass dies, wie zu erwarten, der Techniker von Dell war. Er teile mir mit, dass er heute viel zu viele Aufträge hat und darum meinen leider ausfallen lassen muss, da er es sonst zeitlich nicht schafft. Okay, kann man wohl nichts machen. Haben dann gleich für den nächsten Tag den eigentlichen Termin ausgemacht. Hier kann man aber sagen, dass es sich offensichtlich um einen Denkfehler des Delll Supports handelt, dort muss wahrscheinlich viel automatisiert ablaufen, um so viele Kunden überhaupt betreuen zu können und außerdem sagte der Mann am Telefon vom Support auch, dass er erstmal anrufen würde. Insofern war also alles nach Plan.
Am Freitag, dem Tag, an dem der Laptop ja eigentlich erst kommen sollte, bin ich gegen 7 Uhr wach geworden, weil ich einfach zu aufgeregt war. Um 8 hab ich dann von mir aus dem Techniker angerufen und gefragt, wann er kommen könne. Er sagte dann, dass er heute auch einige Aufträge hat und so erst gegen Nachmittag kommen kann, er würde anrufen, wenn er beim Kunden vor mit losfährt. Also hab ich mich wieder hingelegt und weiter geschlafen.
Gegen 3 kam dann ein Anruf, er würde jetzt losfahren und sei in 10 Minuten da. Da hab ich mich ziemlich gefreut und schon mal einen Tisch hergerichtet, der genug Platz für seine Operation bietet.
Während der Aktion haben wir uns unterhalten, denn ich hab mich einfach neben ihn gesetzt und zugeschaut, was er da macht, weil es mich natürich interessiert und ich sowieso nichts bessere zu tun hatte. Während der Unterhaltung hat sich dann rausgestellt, dass das ein ähnlicher Freak wie ich ist, der auch gern an Computern rumbastelt, aber sich nicht so sehr für Software interessiert, wie ich. War auf jeden Fall eine interessante und spannende Sache, das alles.
Er hat mir dann noch den Gefallen getan, für das BIOS-Update dazubleiben und den Part mit dabei zu sein, wo Windows den Bitlocker-Key abfragt. Dieses Mal gab es keinen plötzlichen Absturz oder Ähnliches.

Inbetriebnahme

Da Windows für meine Definition keine richtige „Inbetriebnahme“ für einen Computer ist, hab ich also meinen Plan von weiter oben fortgesetzt. Die Manjaro Live Version statete ohne Probleme und ich konnte die internet NVME-SSD auf die externe Festplatte übertragen, allerdings erst, nachdem ich den NVME Modus von RAID auf AHCI umgestellt hatte. Mehr Infos dazu gibt’s hier.
Nachdem ich beides gemacht hatte, musste ich noch die ID der Festplatte ändern, sodass ich von der externen booten konnte, ohne Windows in Verwirrung zu setzen. Aber so weit bin ich gar nicht gekommen, denn das ID ändern mit dem diskpart-Tool – oder wie das heißt – hat die Windows Installation nämlich nicht überstanden. War mir aber an der Stelle auch egal, so richtig was anfangen mit Windows konnte ich hier drauf ohne hin nichts. Also Manjaro nochmal gebootet, ging ja ohne Probleme, Manjaro Installer gestartet und einmal eine neue Paritions-Tabelle erstellt, weg mit Windows, hehe.
Der Rest war wie üblich, wenn ich mir ein Linux eingerichtet hatte. Als Fenstermanager kam GNOME 3.28 zum Einsatz und über meine weiteren Lieblingsprogramme unter Linux kann ich ja in einem anderen Post informieren, das würde den Rahmen von diesem hier etwas sprengen.
Den Rest des Freitags hab ich jedenfalls damit verbracht, die tollen Welten von Arch Linux und AUR, dem Arch User Repository, zu erforschen und es mir gemütlich zu machen, in meiner neuen, frischen Linux installation. Und ich bin heute noch nicht fertig, alles zu erkunden, und das zwei Tage danach.

Schlusswort

Zusammenfassend würde ich sagen, dass ich hier einen tollen Laptop ergattert habe, zu einem sehr vernünftigen Preis, den ich auch später noch brauchen werde und brauchen kann. Der Anfang war zwar etwas happig wegen der Panne, aber da das so problemlos behoben wurde, kann man eher sagen, es war eine interessante Erfahrung, die ich da gemacht habe, dass tatsächlich ein Techniker von Dell kommt und das repariert, hat man ja auch nicht alle Tage.
Übrigens, Dell gibt einem Windows-Keys zu den Ersatzteilen dazu, falls man die Festplatte beim Repariern löschen muss. hust Anscheinend haut Microsoft den OEMs die Lizenzen so um die Ohren, dass sie die einfach herschenken. Ist ja selbst bei der „Developer Editon“, die mit Ubuntu 16.04 LTS aus der Fabrik kommt eine dabei, sollte man mal irgendwann doch Windows drauf brauchen.
Na dann, das war’s mit dem Post. Hoffentlich war es einigermaßen interessant zu lesen und nicht total lame, aber das ist ja gerade mal mein zweiter richtiger Post hier, also darf ich mir das erlauben, viele Fehler zu schreiben und nicht gut zu sein, denke ich.

Bis zum nächsten Post,
Lucy