Linux on the Asus Transformer Book T100 CHI / TA

Two years ago I tried installing Linux on my Asus Transformer Book T100CHI, which is a pretty weird little machine in terms of hardware and firmware. Back then I didn’t succeed but today I actually did and because I didn’t find any comprehensive guide/tutorial on how to make the thing usable again with Linux, I want to share which steps it took me and which hoops I had to jump through, to get everything up and running.

The device

The Asus Transfromer Book T100CHI is a funny little machine. Featuring a 64 bit Quad Core Intel Atom Bay Trail processor, 2GB RAM, 32 GB of EMMC internal storage, a 1920×1200 IPS touch-screen and a bluetooth connected detachable keyboard/touchpad combo, it only allows for 32 bit UEFI booting. Nothing else, no 64 bit UEFI, no legacy option to speak off.

Finding a distro that would actually boot and install fine

My first try was the 32 bit Manjaro version, which did boot fine, install fine but some things didn’t work. There was no Wifi and Bluetooh, but there was sound. To improve the situation my first idea was to install a more recent kernel, which I did. Manjaro32 comes with the 4.14 kernel which isn’t ideal at all for this convertiable series of tablets/notebooks according to the T100 community on Google+. However, kernel 4.19, which was the most recent one in the repos, didn’t boot at all. Something with the mesa driver was not working, but I didn’t care.

After some research I found that Debian offers so called multi-arch ISOs for download which feature a 32 bit bootloader and a 64 bit bootloader which would boot either 64 oder 32 bit Debian installers. The image was twice as big, 600MB, but it did exactly what I wanted. Boot a more recent 64 bit Linux through a 32 Bit bootloader. And yes, it booted without issues and installed without issues. On and btw, I choose Debian 10, nicknamed Buster, because it comes with kernel version 4.19. This is where I got my installation image.

Installation

I opted for a clean GNOME and Cinnanomon Desktop installation as GNOME has excellent touch support and Cinnanomon would be lightweight enough if GNOME didn’t work well on this machine.

To get internet access I used a USB to Ethernet dongle which was connected to a USB hub together with my mouse and keyboard receiver.

During the installation the installer informed me of a missing firmware, called brcm/brcmfmac43241b4-sdio.bin which I looked up and immediately found in this package. I remembered this for later.

Luckily, no jerking around with bootloaders was required because the Debian installer detected my weird system without problems and installed grub for 32IA UEFI.

Post-Installation proceedure

After a successfull installation I found myself with a working GNOME desktop with touch support, but no Wifi, no Bluetooth and no sound.

Wifi and Bluetooth

To get Wifi and Bluetooth working, installation of the non-free firmware package I remembered above was required. I edited /etc/apt/sources.list to add non-free at the end of the first two mirrors and updated my sources with sudo apt update. firmware-brcm80211 was now successfully found and installed and after a quick reboot, Bluetooth worked, but no Wifi yet. dmesg showed my something about „failed to load firmware for xy“.

To actually get Wifi working, I had to copy contents of one of my EFI vars to a file. I tried mounting the EFI vars with this command mount -t efivarfs none /sys/firmware/efi/efivars wich did fail because they were already mounted. To copy the contents of the nvram file to a .txt file that would live next to the binary driver for the wireless I executed a command similar to this: cat /sys/firmware/efi/efivars/nvram-74b00bd9-805a-4d61-b51f-43268123d113 > /lib/firmware/brcm/brcmfmac43241b4-sdio.txt.

Now for a quick reboot and tada, Wifi works! … just as bad as in Windows, constantly loosing connection. For further information consult: https://wireless.wiki.kernel.org/en/users/drivers/brcm80211#firmware_installation1

Sound

Sound was fairly easy to get running, all it needed was the installation of firmware-intel-sound and a quick reboot, another non-free firmware-package.

Conclusion

After about an hour or two of googling and installation I brought this tablet back to life. Video playback works fine with mpv, browsing the internet is flawless with Firefox, though YouTube is a bit slow and overall this makes for a soild and portable little Linux machine.

Not every problem has been solved. I didn’t care about brightness control for example, which still doesn’t work. On and also, it won’t boot without a USB keyboard attached for some reason, it is stuck at loading the initramfs during boot without it. The last one does actually bother me tho because I really wanna be able to boot this without a dongle hanging of the side.

If you have got a T100CHI/TA and it is lying around and collecting dust, this makes for a fun project with actual profilt. There are some hoops to jump through but in general it works well. Though please, don’t do this if your daily life relies on this tablet, because this is in no way stable or supported.

Also, isn’t it amazing how well GNOME is optimized for touch devices like this one? Props to the GNOME developers: some of you guys are contaminated with java script and bloated-thinking, after all, 2GB of RAM is barely enough for GNOME, but UI design is something you really rock. Keep up the amazing work.

Cheers, Lucy.

Update 19th of July, 2019

It might also be wise to install firmware-linux-nonfree and firmware-misc-nonfree for better video playback performance. For instance when generating the initramfs it complains about some missing firmware which went away after installing these packages. This doesn’t solve the backlight issue thogh. I got this hint from here.

Vor genau einem Jahr kehrte ich Windows den Rücken

Vielen stinkts einfach von Windows. Sie sind genervt von erzwungenend Updates, genervt von ihrem langsamen Computer, genervt von der Komplexität, die Windows mit sich bringt. Aber es gibt einen Ausweg, einen sehr attraktiven Ausweg, wenn man sich darauf einlässt und offen für neue Ideen ist. Und nein dieser Ausweg heißt nicht Apple. Er heißt Linux.

Vorgeschichte

Als 2011 unser damaliger Computer den geist aufgegeben hat, haben wir den zu einem befreundeten Ingenieur gebracht, der sich recht gut mit Computern auskennt. Nach einer Weile haben wir den damals echt langsamen Computer mit 1Ghz single core Prozessor und 1GB RAM bestückten Rechner zurück bekommen. Die Festplatte war kaputt, die hat er ausgetauscht. Aber neben der Windows XP Wiederherstellungs CD gab er uns noch eine frisch gebrannte Ubuntu Installations DVD mit. Kommentiert hat er das ganze mit „Das läuft eventuell besser aus dem alten Teil, als das Windows XP.“ Und so hab ich das mal ausprobiert und kam zu meinem ersten Kontakt mit Linux. Gefallen hat es mir, plötzlich konnte man wieder was anfangen mit dem Teil. Und innerhalb kürzester Zeit hab ich das System da drauf zerschossen mit meiner Spielfreudigkeit. Ich hab mich auch umgeschaut, was Linux ist und wo das eingesetzt wird. An Computern war ich schon immer interessiert. Und so folgten zwei weitere Jahre, ich die damit verbrachte, mit diesem Computer rumzuspielen. Wir hatten zwar recht bald wieder einen funktionierenenden Laptop, aber den hab ich nicht oft bekommen. Und so war meine einzige Möglichkeit, einen eigenen Computer zu besitzt und damit herumzuspielen, dieses Gerät.

An Servern war ich auch schon immer interessiert, ich fand das spannend, so was einzurichten, also hab ich auch damit herumexperimentiert. Apache2 installiert, eine Website improvisiert. Aber noch viel mehr Einsatz hatte Linux dann auf einem Rechner, den wir von irgendwoher geschenkt bekommen hatte. War auch nur ein single core, aber mit 3,4GHz. Damit konnte man schon was machen. Ich wollte eine Installation, die wenig Leistung braucht und mit der ich möglichst viel machen kann. Dafür war Linux perfekt geeignet. Mit Fluxbox als Fenstermanager und selbst eingerichtetem Desktop hatte ich sehr schnell den Dreh raus, wie man 1080p YouTube auf meinem damals neu gekaufen Monitor schauen kann, ohne dafür viel Leistung zu brauchen. Irgendwann kam dann noch eine neue Grafikkarte dazu und das Teil wurde mit damals noch XBMC (heute heißt das Kodi Media Center) als Entertainment-Box verwendet. Musik hab ich damit gehört, YouTube hab ich geschaut. Aber vorallem hab ich eines geschafft: Mir meinen Traum eines eigenen Computers erfüllt. Völlig kostenlos, völlig selbstständig, mit alter Hardware, die man sonst weggeschmissen hätte.

Als ich dann zu meinem 14 Geburstag einen richtigen Computer bekommen hab, hab ich auch darauf mit Linux herumgespielt. 2014 war das ernsthafte Hardware: Ein Core i7-4790, 8GB RAM und eine NVidia GTX 970 Gigabyte Windforce Edition. Damals kam nur Windows 7 in Frage, es war ein spektakuläres Betriebssystem mit allem, was ich brauchte und allem, was ich wollte. Ubuntu 14.04 hab ich jedoch immer auch auf einer extra Partition gehalten und hab auch öfter mal darin rumgespielt. Es jedoch nie Ernst genommen, Linux war für mich immer noch besser für alte Hardware und spielen konnte ich damit leider (noch) nicht. Mein Upgrade auf Windows 10 hab ich bis 2016 rausgezögert. Anfang 2016 hab ich es allerdings dann doch durchgeführt, weil ich ganz einfach ein aktuelles, kostenloses Betriebssystem bekommen hatte, das immer noch alles konnte, was ich wollte. Aber mit jedem Windows Update wurde die Geschichte schlimmer. Was mich von Windows 10 ferngehalten hatte, war nämlich diese schreckliche Updatepolitik, aber ich hab es auf mich genommen, wollte die Chance nutzen, kostenlos ein aktuelles System zu haben. Ende 2016 hab ich sogar beim Neuaufsetzen des Computer diese Partition ganz gelöscht, weil ich einfach selten drin war und die 30 GB mehr auf meiner kleinen 250GB SSD gerade recht waren.

So viel zur Vorgeschichte. Ich hatte also schon immer Linux im Hinterkopf und war ein wenig vertraut damit, aber so richtig ernst als Alternative hab ich es nicht genommen. Das sollte sich allerdings ändern, als ich mehrere Linux YouTube-Kanäle gefunden hab, die gezeigt haben, wie die aktuelle Entwicklung von Linux ist und wie sehr es eine immer attraktivere Alternative wird. Auch beim Gaming hat sich was getan, Valve wollte viele Technologien, die es ermöglichen, Windows Spiele unter Linux auszuführen, in ein Programm zusammenfassen, das mit Steam mitgeliefert werden soll. Dieser und weitere andere Gründe führten dazu, dass ich ernsthaft in Erwägung zog, Linux nochmal eine Chance zu geben.

Mein Weg hin zu einem 100%igen Linux-Alltag, kann man in Folgende drei Bereiche unterteilen:

Boah, mir reicht’s, raus hier

Anfang 2018 entschied ich mich dann, diesem Blödsinn namens Windows endgültig den Kopfschuss zu geben. Ich wollte mich nicht mehr Unterdrücken lassen. Mir wurde das alles zu Anstrengend. Windows tat nicht mehr, was ich wollte, es machte, was Mircrosoft will. Die Telemetry Geschichte hat mir gar nicht gefallen und es musste einfach was anderes her, das benutzerfreundlicher und umgänglicher ist. Da kam mir Linux wieder in den Sinn.

Wie oben schon erwähnt, war mir also Linux von der Kindheit an schon immer ein Begriff. Dieser Begriff war mit Experimentieren, Überraschungen, Momenten des Erfolgs, aber auch Momenten des Misserfolgs und von Frust umgeben. Aber ich wollte ausprobieren, ob es tatsächlich möglich ist, einen Großteil meines Computeralltags auf Linux umzustellen.

Gaming hab ich dabei erstmal hinten angestellt, dafür hab ich meine Windows SSD behalten. Für Linux gab es eine extra 128GB SSD, die von einem anderen Projekt noch rumgelegen ist. Vorallem meinen Multimedia-Konsum und mein Webbrowsing wollte ich unter Linux relisieren, also waren die wichtigesten Punkte:

  • Chrome zum Laufen bekommen
  • einen Media Player, der an MPC-HC rankommt, einrichten.

Entschieden hab ich mich dann für Ubuntu 16.04 GNOME Edition. Eigentlich sollte es Debian werden, aber ich hatte massive Probleme, meine Grafiktreiber zum Laufen zu bekommen. Im Nachhinein weiß ich sogar, was das Problem war, aber damals war ich noch nicht so weit. NVidia is to blame, aber darauf gehe ich später noch genauer ein.

Chrome, ja das war kein Problem, konnte man ja aus einer PPA installieren und mit der Kommandozeile war ich schon etwas vertraut, vor allem apt wusste ich nach den paar Debian Unfällen zu benutzen. Dass es Chromium gibt, die Open Source Version von Google Chrome mit der gleichen Blink Engine, das man direkt über das Paket chromium-browser installieren konnte, das wusste ich damals noch nicht.

Als Media Player sollte es mpv werden. Klein, Schlank, Einfach zu bedienen, bisschen ungewohnt mit Konfigurationsdatei einzurichten, aber hatte trotzdem eine Möglichkeit, GPU-Shader zum hochskalieren des Videos zu benutzen, so wie MPC-HC und Konfigurationsdateien schreckten mich nicht ab, im Gegenteil.

Was bis zuletzt noch gefehlt hat, das war mein geliebter foobar2000, mein Musik Player. Aber auch dieses Problem konnte ich lösen indem ich den Music Player Daemon gefunden hab, der sich mit dem Gnome Music Player Controller steuern ließ. Diese Kombination ermöglichte es zudem, mit meinem Smartphone das ganze mit einer kostenlosen App zu steuern.

Das war also alles geschafft und ich hab mich langsam eingelebt in Linux. Hab rumexperimentiert und erkundet, was denn so alles möglich ist und hatte meinen Spaß. Mehr Spaß als unter Windows. Für Spiele wie Osu und Overwatch, die einzigen Spiele, die ich aktiv spiele, musste ich allerdings Neustarten und Windows benutzen, diese hatte ich noch nicht zum laufen gebracht.

Der GNOME-Desktop war definitiv die richtige Entscheidung für meinen Workflow, der sehr Mausgebunden war. GNOME Bedient sich komplett anders als Windows mit einer grundlegend anderen Idee und es sagte mir sehr zu. Alles war mit einem Kopfdruck an einem Ort und war nicht im Weg, wenn ich es nicht gebraucht hab. Den Produktivitätsschub, den ich dadurch bekommen hab, war spürbar.

Mh, das ist gar nicht schlecht – comfy

Ich kam also zu dem Entschluss, dass Linux für Produktivität und Arbeiten inzwischen das absolut überlegene OS war und so kaufte ich mir einen Laptop. Dafür gibt es sogar einen eigenen Beitrag. Aber im Grunde wollte ich ein Gerät, das leicht ist, viel Akku und nicht zu wenig Leistung besitzt und außerdem wollte ich Windows gar nicht erst einen Chance geben, weshalb ich mir Manjaro Linux als OS aussuchte. Das ansprechende an Manjaro war, ein Arch Linux installiert zu haben, ohne alles selbst machen zu müssen und gleichzeitig Zugriff auf das Arch User Repository zu bekommen. Den Tipp für Manjaro bekam ich von Leuten, die mir aus meiner Fansubzeit geblieben sind, die sich auf einem Discord-Server versammelt hatten, wo es um Videoencoding ging. Mein Vorhaben war sehr leicht unter Linux umzusetzten, aber das Arch User Repsitory brauchte ich dafür. Auf meinem großen Computer hatte ich noch keine Zeit, komplett umzusteigen, aber die Live-Version hab ich ausprobiert und es hat mir sehr zugesagt, also hab ich das auch gleich auf meinem Laptop eingesetzt.

Ja, das AUR (Arch User Repository), eine Welt, die sich mir da aufgetan hat, die so vieles so viel einfacher gemacht hat. Die Idee ist wirklich einzigartig und wirklich toll: Man erstellt einfach eine Datei mit Anweisungen für einen AUR-Helper, wie er ein Programm zu kompilieren hat. Im Prozess wird dabei direkt eine Paket-Datei erstellt, die sich mit dem Package Manager des jeweiligen Systems installieren lässt. Unter Arch Linux basierten Linux Distributionen ist das pacman. So lässt sich ein selbst kompiliertes Programm auch leichter wieder entfernen. Die Abhängigkeiten erfüllt der AUR-Helper für einen und in den meisten Fällen ist die Installation so einfach, wie das installieren eines Paketes aus dem offiziellen Paketquellen.

Aber das war nicht alles. Zusätzlich hab ich einen YouTube Kanal eines Linux-Benutzers (Luke Smith) gefunden, der wirklich einzigartie Programm gezeigt hat. Innerhalb kürzester Zeit lernte ich mit vim umzugehen, experimentierte mit anderen Terminal-Programmen herum und brachte mir Grundkenntnisse mit LaTeX bei. Einen wirklich tollen Fenstermanager hab ich auch entdeckt, den ich zwar heute nicht mehr benutze, aber einen, der fast komplett gleich funktioniert, nur kein xorg mehr benutzt, einen sogegannten tiling window manager. Auf einem Laptop ist das unschlagbar, wenn man mit der Tastatur Programme zwischen Workspaces hin und herschieben kann und gleichzeitig auch das Anordnen der Programme mit der Tastatur steuern kann. Griffwechsel zwischen Tastatur und Maus sind so viel geringer, was die Produktivität wiederrum steigert.

Das Problem mit Gaming hab ich dann auch irgendwann halbwegs gelöst, als ich Overwatch endlich über Lutris zum laufen gebracht hab und so zumindest dieses Spiel unter Linux spielen konnte. Mit DXVK (DirectX Vulkan) war es sogar mit fast der gleichen Leistung wie unter Windows spielbar.

Das Leben ist entspannt unter Linux, aber es sollte noch mehr kommen:

Wow, ich will nie wieder zurück

Das beschreibt die letzte Phase in meinem Linux-Experiment, denn ich will wirklich nie wieder zurück.

Nachdem ich einige Seiten gefunden hab, die mein Audio-Verzögerungsproblem mit Osu! gelöst haben, stand dem völligen wechsel nichts mehr im Wege. Ich konnte plötzlich alles unter Linux machen, was ich auch unter Windows konnte. Zwar nicht mit dem gleichen Programmen und auch nicht auf die gleiche Art und Weise, aber definitiv einfacher und produktiver. Das ist es, auf das man sich einlassen muss, dann ist der Umstieg auch sehr schmerzlos. Linux ist nicht Windows und es funktioniert auch grundlegend anders.

Tatsächlich hab ich sogar eine wesentlich niedrigere Audio-Verzögerung erreicht unter Linux, als es unter Windows je möglich wäre in dem besagten Spiel. Meine Steam Spielen waren auch überhaupt kein Problem. Dank Steams Erfolgen mit SteamPlay und Proton war es problemlos möglich, einen Großteil meiner Windows-Steam-Spiele auch unter Linux zu spielen.

Den absoluten Höhepunkt würde ich den Kauf eine neuen Grafikkarte benennen, mit dem ich endlich meine NVidia Grafikkarte ersetzten konnte, die eigentlich nur Probleme unter Linux gemacht hat dank der Tatsache, dass sich NVidia weigert, mit der Linux-Cooperation in Bezug auf Grafiktreiber zusammen zu arbeiten. Mit einer NVidia Grafikkarte ist man an Xorg gebunden, einen Displaymanager, der eine absolute Kathastrophe darstellt. Seit einigen Jahren wird an dem Nachfolger, der diese ganze Geschichte von Grund auf besser macht, namens Wayland gearbeitet. Diesen hatte ich mit dem Fenstermanager sway und unter der Wayland fähigen GNOME-Version auf meinem Laptop ausprobiert und wayland erlaubte es mir, meinen 2160p (4K) Monitor endlich in seinem vollem Umfang zu nutzen und endlich mit dabei zu sein, beim Zuschauen von der stetigen Entwicklung dieses zukunftsfähigen Displaymanagers.

All dies und der Fakt, dass sich Osu! unter Linux sogar besser spielen lässt, werden mich wohl für immer auf der Linux Seite halten. Desktop-Computer sind vorm aussterben bedroht, weil mobile Geräte wie Smartphones und Tablets die Welt überfluten und auch schon Schulen und den Arbeitsbereich einnehmen. Windows wird meiner Meinung nach nur noch benutzt, um Kompatibilität mit Software zu gewährleisten, die kein Linux unterstützt, und das in VDIs, also virtueller Desktop-Infrastruktur.

Jedem, den dieser Beitrag dazu bewegt hat, sich Linux auch einmal anzuschauen, den ermutige ich dazu, sich eine virtuelle Maschine mit Ubuntu Linux aufzusetzen. Oder einfach mal die Live-Version von Manjaro Linux auf seinem Computer auszuprobieren. Vielleicht gefällt Dir ja, was zu sehen und bedienen wirst.

Bis zum nächsten Beitrag, Lucy.

Das Internet wird sich verändern

In meinem letzten Post habe ich die gestern verabschiedete Urheberrechtsreform kommentiert. Das Übertragen der Haftung für illegalen Kontent an die Platformen selbst, wird unweigerlich zu einem Schwinden der individuellen Inhalte führen. Legal sind dann die meisten Sachen nicht mehr. Platformen werden schon in ihrer Grundfunktion als Inhaltsverteilungssystem ausgemerzt, denn die Hürde für Inhaltsersteller wird so hoch gesetzt, dass es für die meisten unattraktiv sein wird, sich dort eine Community zu bilden. Wenn also Inhalte, die Inhalte von Anderen zitierten oder kommentieren, von vornherein blockiert wirden, was gibt es denn für Auswege?

Eigene Website

Diese Urheberrechtsreform betrifft die Platformen an sich. Wenn man allerdings seine eigene „Plattform“ betreibt, zum Beispiel einen eigenen Blog oder eine eigene Internet-Seite, so ist man nun selbst dafür verantwortlich, dass auf seinem Blog keine urheberrechtlich geschützten Inhalte erscheinen. Sehr simpel eigentlich, sich an solche Regeln zu halten.

Allerdings ist dies nur möglich für Leute, die auch das Wissen haben, sich selbst einen Blog aufzusetzen. Und das werden wohl die Wenigsten sein, die im Internet unterwegs sind. Außerdem kostet es Geld, denn man ist nicht selbst das Produkt, sondern muss seine Website finanzieren. Unter Umständen wird das auch Einige davon abbringen, das überhaupt zu tun.

IPFS – Interplanetary Filesystem

IPFS könnte revolutionieren, was wir unter dem Internet verstehen. Traditionell lädt ein Webbrowser die Website von einem Server, der irgendwo in einem Rechenzentrum sitzt, herunter und zeigt sie ihm an. Zum Ansprechen eines Servers wird die URL (Universal Resource Locator) benutzt, zum Beispiel https://www.example.com. Das https:// steht für das verwendete Protokoll, nämlich das Hyper Text Transport Protocol (Secure). Sollte allerdings eine Website auf diesen Server verweisen und dieser ist gerade ausgeschalten oder hat eine Störung, dann zeigt einem der Browser einfach nur eine Fehlermeldung an. Dies nennt man ein zentralisiertes System und es ist anfällig am zentalen Punkt. Sollte dieser ausfallen, war’s das.

IPFS arbeitet fundamental anders. Dateien werden nicht mehr anhand ihres URLs identifziert, sondern anhand eines Hashwertes. Ein Hashwert macht aus beliebigen Daten eine Zahl, welche eindeutig diese Daten identifiziert. Dabei können keine Rückschlüsse auf die eigentlichen Daten gezogen werden. Ein IPFS Knoten speichert dann Dateien in seinem zugewiesenen Speicherplatz, sobald ihm dies angewiesen wird. Wenn man eine Website über das IPFS Protokoll aufruft, so wird der nächste bekannte IPFS-Knoten gefragt, ob der die Datei mit Hash XYZABC besitzt. Sollte dies der Fall sein, liefert er die Datei ganz gewöhnlich aus. Sollte er die Datei nicht besitzen, so fragt er alle ihm bekannten Knoten, ob diese die Datei haben. Und so weiter, bis die Anfrage irgendwann einen Knoten erreicht, der die Datei hat, der diese dann dem Anfrage-Steller sendet.

Dieses System funktioniert weitestgehend vollautomatisch, denn man kann seinem IPFS-Knoten mitteilen, eine Datei, die so und so oft in dem und dem Zeitraum abgefragt wird, auf seinem Server oder Rechner zu speichern, sodass die Anfrage direkt beantwortet werden kann, ohne sie weiterzuleiten. Wenn eine Datei also sehr begehrt ist, dann wird sie von sehr vielen Knoten gespeichert, was den Weg zwischen Client und Server massiv verkürzen kann und damit gleichzeitig das Netzwerk entlastet. So können mehrere Zehntausend IPFS-Knoten gleichzeitig eine Datei besitzt, vollkommen automatisiert, ohne davon zu wissen. Und da die Haftung erst gilt, wenn man darüber bescheid weiß, dass man gerade eine illegale Datei auf seinem Rechner liegen hat, ist dieses System vom Gesetz auch ganz schwer angreifbar. Das Einzige, was ich mir vorstellen könnte, wäre eine gesetzlich verpflichtende Liste an Hashes, die man automatisch blockieren muss. Allerdings wird jede kleine Änderung in den Metadaten der Datei den Hash völlig verändern und so ist es fast unmöglich, Material zu identifizieren. Und selbst, wenn die Identifizierung möglich ist, so stelle man sich mal eine Kanzlei oder Behörde vor, die 50.000 IPFS-Knoten, die noch gar nichts über ihre Urheberrechtsverletzung wissen, zu informieren und die Löschung zu beantragen. Viel Spaß.

Fazit

Es gibt also doch noch Hoffnung für ein Internet, das von wahnsinnigen Kontrollmaßnahmen befreit bleibt. Eigene Websiten und auch eine Platform, die mit IPFS funktioniert, wären gute Wege, um diesen Blödsinn zu umgehen. Für IPFS gibt es noch keine eindeutige Gesetzeslage und für die Blogger auf ihren eigenen Seiten gibt es keine weiteren Konsequenzen.

Man könnte hier noch das Argument anbringen, dass die Verbreitung von anderen illegalten Inhalten so deutlich vereinfacht wird und das zu mehr Krimimalität führen wird, jedoch gibt es diese Krimimalität ohne hin schon im Darknet und über andere Wege, die genau so schwer zu greifen sind. Und lieber hat man ein völlig unkontrolliertes System, als eine unnütze und kontraproduktive Kontrolle.

Danke für’s Lesen!

Politischer Kindergarten

Heute war es so weit. Abstimmung für die Urheberrechtsreform wurde abgehalten. Und sie wurde verabschiedet. Ganz recht. Von durschschnittich 50 Jahre alten „Politikern“ wurde heute über die Zukunft eines Mediums entschieden, von dem diese Generation nicht im geringsten weiß, wie es funktioniert, wie man es bedient, geschweige denn, wie man damit erfolgreich ist. Lobbyisten aller Art fanden sich die letzten Monate zusammen, um ein Gesetzesentwurf zu gestalten, der ihnen mehr Provit einbringt. Unter der Deckhaube, individuellen Künstlern / Content Creators mehr Macht über ihre Werke auf Online-Platformen zu verschaffen, wurde eine Richtline erschaffen, die nur eines im Sinne hat: Der Wirtschaft dienen soll sie.

Anfang 2018 gab es einen eher kleinen Aufschrei. Eine Petition wurde gestartet mit dem Namen „Save your Internet“. Sie hatte das Ziel, die bis dato noch in den Kinderschuhen steckende Urheberrechtsreform zu verhindern mit der Begründung, dass durch sogenannte „Uploadfilter“ die Meinungsfreiheit im Internet gefährdet wäre. Jedoch verbreitete sich diese Petition wie ein Lauffeuer und hatte innerhalb des Verlaufes von 2018 mehr als 3 Millionen Stimmen gesammelt. Damit stand sie unter einer der wenigen Petitionen, die Millionenfache Stimmen bekommen hatten auf der Seite change.org.

Um den Oktober gab es dann einen größeren Aufschrei, denn diese Reform wurde durchgewunken und kurz darauf wurden von Julia Reda englische Gesetzestexte „geleaked“, die die Artikel diese Reform beinhalteten. Hier kommt die Anwaltskanzlei Wilde Beuger und Solmecke ins Spiel. Christan Solmecke, ein Rechtsanwalt, betreibt einen YouTube Kanal, auf dem er Videos zu juristischen Themen veröffentlicht. Unter anderem aktuelle Gesetzesänderungen und auch Fragen aus der Zuschauerschaft. Herr Solmecke hat sich diesen Gesetztestext der Urheberrechtsreform einmal angesehen und durchgearbeitet. (Link dazu hier) Als digital kompetenter und gebildeter Jurist erschien ihm die Umsetzung eines solchen Textes völlig unmöglich und absolut unprofitabel für Künstler. Zu dieser Analyse verbreitete er ein Video, welches 50 Minuten lang den Wahnsinn dieses Artikels erleutert und für Normalbürgerliche verständlich erklärt.

Um es auf den Punkt zu bringen: Die Reform macht die Plattformen selbst verantwortlich für Content, der dort von Usern hochgeladen wird. Eine Verbreitung von urhebrrechtlich geschütztem Material soll schon vor dem Upload verhindert werden. Kommentare zu einer möglichen Umsetzung gibt es keine, darum schließt die Mehrheit auf einen möglichen Uploadfilter, der registriertes urheberrechtlich geschütztes Material in einer Datenbank liegen hat und das Hochgeladene damit vergleicht. Sollte eine Urheberrechtsverletzung erkannt werden, wird gar nicht erst veröffentlicht. Die Umsetzbarkeit zum Profit der Künstler ist sehr umstritten, aber dazu später mehr. Des Weiteren setzt diese Reform die Urheber über die Platformen, was an sich nicht schlecht ist, aber einen kleinen, selbstständigen Künstler gleich setzt mit einem großen Konzern, wie dem Axel Springer Verlag. Und solchen Rießen gegenüber kann man sich dann wohl kaum behaupten.

Außerdem erfordert die Reform, mit jedem anderen Urheber eine Lizenz abzuschließen, wenn man Materiel von diesem in seinem Werk verwenden möchte. Und hier fängt die Unmöglichkeit an. Wie soll denn bitte Hans Günter, der gerade dabei ist, einen neuen YouTube Kanal aufzubauen und gerade mal wenige hundert Aufrufe pro Video hat, sicherstellen, dass er die passenden Lizenzen hat für Alles, was er veröffentlich will? Angenommen, Hans Günter wäre ein Let’s Player. So müsste er mit dem Unternehmen, dass das Spiel vertreibt, über das er Videos machen möchte, eine Lizenz abschließen, bevor er das Video hochlädt, denn sonst wird es von vorn herein blockiert. Videospielpublisher werden es kaum als Verlust bezeichnen, wenn ein Let’s Player ihr Spiel seinen Zuschauern zeigt, die dadurch Einblicke in das Spiel bekommen und es unter Umständen auch kaufen. Jedoch ist es für einen YouTube, der noch gar keinen Namen hat höchstwahrscheinlich unmöglich, überhaupt einen Kontakt mit dem besagen Videospielpublisher aufzubauen, denn er wird dem Unternehmen so gut wie egal sein, so ganz ohne große Zuschauermenge.

Noch deutlich wird dieses Problem, wenn Hans Günter Ausschnitte von anderen größeren Urhebern verwenden möchte. Der Urheber darf selbst entscheiden, wer sein Materia benutzt, und wer nicht. Sollte ihm der Verwendungszweck nicht passen, darf er das Ablehnen, das ist sein gutes Recht. So könnte man als Urheber Kritik zu seinen Veröffentlichungen unterdrücken, denn obwohl das Zitatrecht existiert, wird ein Computer kaum zwischen Urheberrechtsverletzung und legitimen Zitat unterscheiden können.

Dies alles könnte dazu führen, dass auf Plattformen nur noch größere Publisher die nötigen Ressourcen haben, um sich dort zu etablieren und von dem Verdienst tatsächlich etwas zu haben.

Nun, der aktuelle Stand der Dinge ist, dass dieses Gesetz heute, am Dienstag, den 26.03.2019 verabschiedet wurde und somit der nächste Schritt die Überprüfung von Richtern ist. Somit gibt es noch eine letztes Hürde zu überkommen. Die erste Hürde wurde ja von Axel Foss heute stürmisch mit gehobenen Fäusten und einem siegessicheren Gesicht gefeiert, was eher einem Fan, der sich über das gewonnene Fußballspiel seiner Lieblingsmannschaft freut, gleicht. Absoluter Kindergarten eben. Trotz der heftigen Proteste, die sogar noch stärker waren als für das Akta-Abkommen vor einigen Jahren, gab es am Ende keine Reaktion der Politiker und die Abstimmung wurde mit ca 350 zu 250 von der Gegenseite gewonnen. Die einzige Hoffnung, die noch bleibt, ist, dass das Gesetz die letztes Station, nämlich die Überprüfung von Richtern, nicht mehr überlebt. Und wenn doch, dann gibt es immer noch Wege, frei im Internet zu Kommunizieren, aber dazu später mehr.

Ansonsten danke für’s Lesen und bis zum nächsten Mal!

Eigener matrix Server on ease

In diesem Post werd ich beschreiben, wie leicht (oder was es braucht) es ist, einen matrix server aufzusetzen. Genauer gesagt einen Synapse-Server.

Was ist matrix überhaupt

Bei matrix handelt es sich nicht um ein bestimmtes Programm, sondern mehr um eine spezifikation, wie die Client-Server Kommunikation für Kommunikation im Internet generell, also Sprach und Videotelefonate oder auch Chaträume, funktionieren soll. Man kann es als eine Art großes Upgrade zu IRC sehen. IRC ist auch auch kein Programm, sondern nur das Protokoll. Und es gibt viele unterschiedliche Client- und Server-Programme
Aber gut, wer diesen Blog-Post per Suchmaschine gefunden hat, der wird schon wissen, was das ist, also werd ich auch nicht genauer ins Detail gehen.

Funktionsweise

So, also wie funktionert das? Im Grund genommen besteht die installation aus zwei Komponenten: Dem Synapse Server an sich und einem Webserver, mit dem man einen Proxy für die korrekte SSL zur Verfügung stellen muss.
Ich werde beim Installations-Part näher auf mein Setup im speziellen eingehen, was ich schon mal in einem (noch nicht fertigen) Blog-Post erklärt habe.

Installation

Gliedern kann man das ganze in drei Punkte:

  1. Installation und Vorwissen für Snynapse
  2. Einrichten der korrekten SSL-Verschlüsselung mit Let’s Encrypt (Webserver-Proxy)
  3. Final touch mit funktionierender Federation

1. Installation und Vorwissen für Synapse

Synapse ist die eigentliche Server Komponente. Bezogen werden kann es unter Debian ganz einfach über eine Paketquelle, die hinzu gefügt werden muss. Genauere Anweisungen dazu hier. Danach lässt sich Synapse wie jedes andere Paket updaten und verwalten.
Wichtig bei der Installation ist jedenfalls, dass man in den Dialog für den Server-Namen auch wirklich die Domain eingibt, unter der der matrix-server anschließend erreichbar sein soll. Also für mich war das matrix.asagi.moe und ich habe asagi.moe eingegeben. Warum das kein großes Problem war, dazu später mehr.
Gut, hat man das so weit am Laufen, geht es weiter mit dem bearbeiten der der config Datei. Dort ist angeben, dass auf IPv6 und IPv4 Adressen gehört werden soll. Ich hatte jedoch das Problem, dass Synapse einfach die IPv4 Adressen nicht gebunden hat und dann nur einfach die gleichen Ports auf IPv6 auszumachen, auch bei Deaktivierung von IPv6 an allen Interfaces. Lösen konnte ich das Problem dann damit, einfach die IPv6 Bindings aus der config-Datei zu löschen und voila, correct bindings accomplished.
Wenn verifiziert ist, dass Synapse auch auf den korrekten IP-Adressen und Ports hört, kann man weiter machen mit dem Webserver

2. Einrichten der korrekten SSL-Verschlüsselung mit Let’s Encrypt

Wer schonmal einen Webserver mit Zertifikaten von Let’s Encrypt ausgestattet hat, der wird bei diesem Part keine Probleme haben, allerdings sollte man das vorher schon mal ausprobiert haben und das Prinzip verstanden haben, bevor man gleich mit Proxying anfängt.
Synapse bindet zwei Ports, das sind einmal der Port 8008 für normale Verbindungen (um den es hier auch geht) und der federation Port 8448, um den es im nächsten Punkt genauer geht. Im Gegensatz zum Port 8448 ist der Port 8008 allerdings nichts standardmäßig SSL-verschlüsselt. Und das direkt mit Synapse umzusetzen ist etwas unkomfortabel, da man jedes mal die Zertifikate neu in die config Datei übertragen müsste, wenn man ein neues beziehen muss von Let’s Encrypt. Empfholen wird daher das einrichten eines Web-Proxys mit ngnix oder Apache. Ich habe hier zu Apache gegriffen, da das erstens mein eigentlicher Webserver ist und zweitens ich mich mit Proxying und generell der Konfiguration schon auskenne unter Apache.
Mein Virtual Host für diese Anwedung sieht also folgendermaßen aus:

Listen 443
<VirtualHost *:443>
   DocumentRoot /var/www/matrix
   ServerName matrix.asagi.moe

   SSLEngine on

   ProxyPass "/" "http://localhost:8008/" retry=3
   ProxyPassReverse "/" "http://localhost:8008/" retry=3

   Include /etc/letsencrypt/options-ssl-apache.conf
   SSLCertificateFile /etc/letsencrypt/live/matrix.asagi.moe/fullchain.pem
   SSLCertificateKeyFile /etc/letsencrypt/live/matrix.asagi.moe/privkey.pem
</VirtualHost>

Jetzt nur noch den Virtual Host in Cloudflare eintragen, Zertifikate holem mit certbot und ausprobieren, ob unter https://matrix.asagi.moe irgendwas zu erreichen ist. And sure enough, it works. Die letzten drei Zeilen für die Zertifikate sind allerdings von certbot autogeneriert.
Wunderbar, was jetzt allerdings noch nicht funktioniert, ist das federating zwischen zwei oder mehr Servern, aber dazu mehr im nächsten Part

3. Final touch mit funktionierender Federation

Hier kommen wir wieder zu dem Fehler, den ich am Anfang gemacht hab und dem Port 8448.
Der Port 8448 heißt deswegen federation Port, weil auf ihn andere Server, eben keine Clients, verbinden. Er ist standartmäßig SSL verschlüsselt mit einem bei der Installatin automatisch generierten Zertifikat, also darum muss man sich nicht kümmern. Es wird auch empfohlen, diesen Port nicht extra mit einem Proxy zu versehen.
Was ich also gemacht hab in meiner Situation war, einfach diesen Port für die ganz Hauptdomain asagi.moe freizugeben. Also ab in das Menü der FritzBox und den Port frei geschalten.
Okay federation klappt nun, allerdings nur zum Teil, nämlich kann man von anderern Servern keine User auf dem Homeserver asagi.moe direkt kontaktieren, das geht nur umgekehrt, etwas unpraktisch, dachte ich mir.
Denn standartmäßig versuchen Clients, den Server Namen einfach als Domain aufzulösen und weil das auch die einfachste Version ist, habe ich mich dafür entschieden, das zu machen. Gebraucht hierfür wird ein SRV-DNS-Record für _matrix._tcp.asagi.moe, der auf asagi.moe:8448 zeigt. Dies sagt dem Client, dass der Service matrix auf der domain asagi.moe unter dem Port 8448 zu erreichen ist.
Und ja, das ist wirklich alles, was man braucht, wenn man mit Virtual Hosts und Cloudflare arbeitet, denn jetzt können mich auch Leute von anderen Servern finden.

Final thoughts

Einen Synapse Server aufzusetzen ist eine interessante Sache, wenn man anderen Messengern und Diesten nicht mehr so ganz traut und einfach mal etwas Service-Unabhängiges zu haben, das einfach funktioniert.
Matrix an sich finde ich eine wirklich sehr sehr gute Idee. Man sollte einen Standard haben für die Kommunikation im Internet und Nutzer von Telegram sollten Nutzer von WhatsApp einfach erreichen könnne. Warum ist so was nicht einfach möglich? Weil jeder seinen eigenen Standard benutzt, das soll sich mit matrix ändern. Und das untersütze ich sehr gern.
Wert also auch ein Hobbyadmin ist und in server Freizeit eigene Dienste auf seinem Server ausprobieren möchte, eine Kombination von Synapse und dem Client Riot ist eine super Alternative zu properitären Dingen, wie TeamSpeak oder Discord. Es ist etwas kniffelig zu installieren und setzt einige Dinge voraus, aber wenn einem kniffeln und neue Sachen lernen nichts ausmacht, ist das eine wirklich tolle Sache.
Zum Abschluss dieses Posts möchte ich noch anmerken, dass es unbedingt einfacher gemacht werden muss, so einen Webserver zu installieren. Ein großer Schritt in diese Richtung wäre das Zusammenarbeiten mit Let’s Encrypt, sodass Synapse sich selbst die Zertifikate für eine einfachere Einrichtung holen könnte. Und unbedingt eine Möglichkeit, das Verhalten von Synapse auch über eine Weboberfläche zu steuern, denn Anfänger lieben so was.
Jedem der dieser Post den Ansport gegeben hat, das mal auszuprobieren, wünsch ich viel Spaß und Erfolg und ich lass wieder von mir hören in einem weitern Post.

Neuer „Daily Driver“ – Dell XPS 13 9370

Endlich ein richtiger Laptop

Wie dem Titel dieses Posts leicht zu entnehmen ist, geht es hier um den Dell XPS 13. Genauer gesagt, warum genau dieses Modell und um eine kleine Panne seitens Dell.

Ja, warum denn genau der?

Angefangen hat es eigentlich damit, dass jemand in meiner Klasse sich einen nigelnagelneuen Dell XPS 15 geholt hat mit fast voller Ausstattung und ich mich dann immer mehr mit Laptop beschäftigt habe. Ich wollte sowieso schon länger einen Laptop kaufen, einfach weil mir klar war, dass ich für die Uni später einen brauchen werde. Ich wollte auch einfach mal ein Gerät haben, das ich überall mit hin nehmen kann und mit dem ich alles machen kann, was ich brauche.
Dabei hab ich drauf geachtet, dass ich ein Modell kaufe, das auf der einen Seite genug Performance für meine Ansprüche hat und auf der Anderen einen dicken Akku. Wäre ja doof, wenn man die ganze Zeit an die nächste Steckdose gebunden wäre. Wichtig war auch, dass der Laptop eine gute Kompatibilität mit Linux hat, denn mit Windows hab ich schon lange abgeschlossen.
Und nachdem dann dieser Jemand aus meiner Klasse sich den großen angschafft hat, konnte ich nicht widerstehen und hab dann auch festgestellt, dass es durchaus Sinn machen würde, den Laptop früher zu kaufen, als eigentlich geplant.
Geplant war nämlich, dass ich mir einen Laptop für die Schule zu meinem 18. Geburtstag kaufe, mit dem ich dann in der Schule mitschreiben kann, sodass ich für die Universität schon geübt und gerüstet bin. „Ja und warum nicht gleich dieses Schuljahr kaufen und für die Oberstufe verwenden?“, war der Gedanke.
Noch ein kleines Nebenargument war, dass das Gerät Thunderbolt 3 hat, sodass ich spätere Erweiterungen leicht durchführen kann. Traum-Setup wäre zum Beispiel, nur diesen Laptop zu haben und dann einfach eine eGPU anzuschließen und dass ich damit meine komplette vorhandene Peripherie am Schreibtisch mit einem Kabel mit dem Laptop verbinden kann.

Die Geschichte vom Ersten Tag

Endlich gekauft, sollte er an einem Freitag kommen, gekommen ist er dann am Dienstag vor diesem Freitag, einsatzbereit war es allerdings erst wieder so richtig am Freitag. Dazu gleich mehr.
Ich hab mich also riesig gefreut, dass endlich mein neuer Laptop, den ich für die nächsten paar Jahre haben werde, angekommen ist. Ausgepackt, im Lieferumfang war nur ein USB-C zu USB 3.1 Kabel und ein USB-C Ladekabel und bisschen Papier Kram. Sehr Minimalistisch, aber kennt man ja so heutzutage.
Vorab, ich hatte schon einen Plan, was mit dem neuen Laptop dann gemacht wird, der sah folgendermaßen aus:

  • Windows einrichten
  • BIOS-Update machen
  • Windows auf externe Festplatte kopieren
  • Interne NVME-SSD löschen
  • Manjaro Linux (aka Arch-Installer) installieren

Nun, an jenem besagten, erfreuten Dienstag konnte ich gerade mal einen der fünf eigentlich echt einfachen Punkte abarbeiten.

Die Panne

Da hatte ich also das BIOS-Update hinter mir, war wieder in Windows, wollte die Installation von Manjaro Linux anfangen. Um jedoch ein Windows fremdes Betriebssystem auf einem von diesen neuartigen Laptops zu booten, muss man im UEFI-BIOS einige Änderungen vornehmen. Nämlich einmal die Secure-Boot-Optionen ausschalten und alle Keys löschen und Thunderbolt-Boot anschalten, sofern man von nicht nur einem der drei USB-C Anschlüsse booten möchte.
Hab ich also alle besagen Änderungen im BIOS durchgeführt und den Laptop neugestartet, wurde ich von Windows aufgefordert, den Bitlocker Schlüssel einzugeben, dass es die Bitlocker Partition wieder entschlüsseln kann. Und noch während ich den Schlüssel auf dem Handy rausgesucht habe, ging der Laptop einfach aus.
Ohne Vorwarnung, ohne Gemuckse, ohne nichts, einfach aus.
„Wird wohl ins Standby gegangen sein oder so.“, hab ich mir gedacht. „Vielleicht ist er ja auch ganz abgestürtzt oder so.“, hab ich mir gesagt, während ich mit allen möglichen Versuchen probiert hab, das blöde Teil wieder anzubekommen. Aber nichts. Einfach nichts. Abstürzen lassen, wieder anmachen, nichts. Nichts ging mehr!
Total entsetzt, aber trotzdem ruhig ist mir aufgefallen, dass die Lade-Status anzeige ein komisches Muster blinkt. zweimal Orange, einmal Weiß Und wenn man auf der Dell-Support Seite nachschaut, was das bedeutet, stellt sich heraus, dass es sich hier um einen Fehlercode handelt. Und zweimal Orange, einmal Weiß bedeutet CPU-Fehler. „Witzig.“, dachte ich mir, „sehr sehr witzig …“ Das kann ja wohl nicht sein, dass der Laptop gleich am ersten Tag nach -ohne Witz- zwei Stunden an Benutzung einfach so kaputt geht.

Kontakt mit dem Support

Weitere Zehn Minuten vergingen, in denen ich vesuchte, das irgendwie selbst zu retten. Aber ohne Erfolg. Also habe ich ein Support Ticket beim Dell Support aufgemacht und mein Problem geschildert. Weil ich aber sehr ungeduldig war, – hab mich auch oft genug verschrieben gehabt beim Tippen von der Nachricht – hab ich dann nach einer guten Stunde direkt beim Support angerufen. Nach ein paar Leuten und Blechboxen, die mich gefragt haben, was ungefähr mein Problem sei und mich mit meiner Support und Ticket Nummer identifiziert haben, hatte ich letzen Endes einen Typen an der Leitung, der mit mir eine Fehleranalyse durchgegangen ist und mir am Ende drei Optionen peräsentiert hat:

  1. Zurückgeben, das Geräte war ja nur 5 Tage (geht vom Kaufdatum aus) alt und ich hätte die 14-Tägige Frist in Anspruch nehmen können
  2. Einschicken, ist ja offensichtlich ein Garantie Fall
  3. Ein Techniker kommt und repariert das Gerät vor Ort mit passendem Ersatzteil, weil Premium Support

Erstens: najaaa, dauert dann wahrscheinlich ewig und ist sehr kompliziert.
Zweitens: „Das dauert zwei bis drei Wochen“, oh nein.
Drittens: Da war ich selbst überrascht, dass dieser Laptop premium Support hat und, dass es so was überhaupt für Privatkunden gibt. Aber da scheint Dell den guten Ruf für deren Support wohl zu halten. Nicht mal Apple bringt so was. Aber die machen ja zur Zeit sowieso nur Blödsinn in der Richtung meiner Meinung nach. Siehe hier und hier. Also kurzum hab ich natürlich die dritte Variante genommen. Ausgemacht wurde dann, dass der Techniker möglichst früh und egal zu welcher Zeit kommen kann, da ich Ferien habe/hatte.

Die Reparatur

Am Tag darauf war eine E-Mail gekommen, in der ein Termin für den Support aufgeführt war: Donnerstag Vormittag. Also das schonmal echt flott und schnell, kann man nichts sagen.
Am Donnerstag vormittag entdeckte ich dann einen verpassten Anruf um viertel vor 9 von einer meinem Handy unbekannten Nummer. Zurückgerufen stellte sich heraus, dass dies, wie zu erwarten, der Techniker von Dell war. Er teile mir mit, dass er heute viel zu viele Aufträge hat und darum meinen leider ausfallen lassen muss, da er es sonst zeitlich nicht schafft. Okay, kann man wohl nichts machen. Haben dann gleich für den nächsten Tag den eigentlichen Termin ausgemacht. Hier kann man aber sagen, dass es sich offensichtlich um einen Denkfehler des Delll Supports handelt, dort muss wahrscheinlich viel automatisiert ablaufen, um so viele Kunden überhaupt betreuen zu können und außerdem sagte der Mann am Telefon vom Support auch, dass er erstmal anrufen würde. Insofern war also alles nach Plan.
Am Freitag, dem Tag, an dem der Laptop ja eigentlich erst kommen sollte, bin ich gegen 7 Uhr wach geworden, weil ich einfach zu aufgeregt war. Um 8 hab ich dann von mir aus dem Techniker angerufen und gefragt, wann er kommen könne. Er sagte dann, dass er heute auch einige Aufträge hat und so erst gegen Nachmittag kommen kann, er würde anrufen, wenn er beim Kunden vor mit losfährt. Also hab ich mich wieder hingelegt und weiter geschlafen.
Gegen 3 kam dann ein Anruf, er würde jetzt losfahren und sei in 10 Minuten da. Da hab ich mich ziemlich gefreut und schon mal einen Tisch hergerichtet, der genug Platz für seine Operation bietet.
Während der Aktion haben wir uns unterhalten, denn ich hab mich einfach neben ihn gesetzt und zugeschaut, was er da macht, weil es mich natürich interessiert und ich sowieso nichts bessere zu tun hatte. Während der Unterhaltung hat sich dann rausgestellt, dass das ein ähnlicher Freak wie ich ist, der auch gern an Computern rumbastelt, aber sich nicht so sehr für Software interessiert, wie ich. War auf jeden Fall eine interessante und spannende Sache, das alles.
Er hat mir dann noch den Gefallen getan, für das BIOS-Update dazubleiben und den Part mit dabei zu sein, wo Windows den Bitlocker-Key abfragt. Dieses Mal gab es keinen plötzlichen Absturz oder Ähnliches.

Inbetriebnahme

Da Windows für meine Definition keine richtige „Inbetriebnahme“ für einen Computer ist, hab ich also meinen Plan von weiter oben fortgesetzt. Die Manjaro Live Version statete ohne Probleme und ich konnte die internet NVME-SSD auf die externe Festplatte übertragen, allerdings erst, nachdem ich den NVME Modus von RAID auf AHCI umgestellt hatte. Mehr Infos dazu gibt’s hier.
Nachdem ich beides gemacht hatte, musste ich noch die ID der Festplatte ändern, sodass ich von der externen booten konnte, ohne Windows in Verwirrung zu setzen. Aber so weit bin ich gar nicht gekommen, denn das ID ändern mit dem diskpart-Tool – oder wie das heißt – hat die Windows Installation nämlich nicht überstanden. War mir aber an der Stelle auch egal, so richtig was anfangen mit Windows konnte ich hier drauf ohne hin nichts. Also Manjaro nochmal gebootet, ging ja ohne Probleme, Manjaro Installer gestartet und einmal eine neue Paritions-Tabelle erstellt, weg mit Windows, hehe.
Der Rest war wie üblich, wenn ich mir ein Linux eingerichtet hatte. Als Fenstermanager kam GNOME 3.28 zum Einsatz und über meine weiteren Lieblingsprogramme unter Linux kann ich ja in einem anderen Post informieren, das würde den Rahmen von diesem hier etwas sprengen.
Den Rest des Freitags hab ich jedenfalls damit verbracht, die tollen Welten von Arch Linux und AUR, dem Arch User Repository, zu erforschen und es mir gemütlich zu machen, in meiner neuen, frischen Linux installation. Und ich bin heute noch nicht fertig, alles zu erkunden, und das zwei Tage danach.

Schlusswort

Zusammenfassend würde ich sagen, dass ich hier einen tollen Laptop ergattert habe, zu einem sehr vernünftigen Preis, den ich auch später noch brauchen werde und brauchen kann. Der Anfang war zwar etwas happig wegen der Panne, aber da das so problemlos behoben wurde, kann man eher sagen, es war eine interessante Erfahrung, die ich da gemacht habe, dass tatsächlich ein Techniker von Dell kommt und das repariert, hat man ja auch nicht alle Tage.
Übrigens, Dell gibt einem Windows-Keys zu den Ersatzteilen dazu, falls man die Festplatte beim Repariern löschen muss. hust Anscheinend haut Microsoft den OEMs die Lizenzen so um die Ohren, dass sie die einfach herschenken. Ist ja selbst bei der „Developer Editon“, die mit Ubuntu 16.04 LTS aus der Fabrik kommt eine dabei, sollte man mal irgendwann doch Windows drauf brauchen.
Na dann, das war’s mit dem Post. Hoffentlich war es einigermaßen interessant zu lesen und nicht total lame, aber das ist ja gerade mal mein zweiter richtiger Post hier, also darf ich mir das erlauben, viele Fehler zu schreiben und nicht gut zu sein, denke ich.

Bis zum nächsten Post,
Lucy

Wie man einen Blog auf seinem Computer zuhause aufsetzt

In diesem ersten richten Post soll es darum gehen, wie ich das hier alles zum laufen gebracht hab.

Kurze Vorgeschichte:

Ich war schon immer interessiert an Servern. „Server“, das hört sich so technisch und genial an, so nach dem, was im Hintergrund alles antreibt und ohne das alles zusammenbrechen würde, joa. Also wollte ich auch mal einen haben, für meine eigenen Dinge. Dies ist nicht mein erster Versuch, einen Webserver aufzusetzen, es gab schon viele, viele davor, die irgendwann gescheitert sind. Jedenfalls hatte ich irgendwann genug Erfahrung, um das alles mal so richtig richtig zu machen, und das hab ich jetzt geschafft.

Stand der Dinge

Zuhause steht ein bei mir ein NAS, welches mit einem Debian Stretch läuft, weil ich Debian mag. Die Ports 80 und 443 sind in der FritzBox für diesen Computer freigegeben. Auf der FritzBox läuft ein Client für einen Dynamischen DNS Service. Die Domain asagi.moe hat die Nameserver von Cloudflare bekommen. In Cloudflare existieren 3 CNAME (Verweise auf andere Domains) Einträge, alle für die gleiche DDNS Subdomain. Nämlich asagi.moe, cloud.asai.moe, dl.asagi.moe. Auf dem Server wurden 3 Virtual Hosts angelegt, einen für jede (Sub)Domain und jeweils ein eigenes Webroot auf einer zusätzlichen Festplatte. Also es laufen im Endeffekt drei Virtuelle Hosts mit unterschiedlichem Webroot, einer für diese Seite hier, einer für die OwnCloud und einer für eine Downloadseite.

Ja, das ist es im Grunde, keine Zauberei. Die Nächsten Überschriften werden sich näher damit befassen, wie die einzelnen Bestandteile aussehen und eingerichtet wurden.

1. Server und Router

Ich fang‘ ganz einfach mal beim Server an. Das Teil ist nicht besonders stark, sollte damals nicht viel kosten. Drin sind ein Asus Mainboard mit einem Skylake Celeron, 4GB DDR4 RAM, eine 128 GB SSD für das Debian, eine 500GB Platte für die Webroots, und zwei weitere (eine 4TB, die andere 8TB) Platten für den eigentlichen Job von dem Teil, nämlich NAS sein.

Als Router kommt eine FritzBox 7490 zum Einsatz, da sie einfach die beste Leistung für meine Zwecke hat. Auf der FritzBox läuft dann eben noch der Deamon für den Dynamischen DNS Service, mehr macht das Teil nicht.

2. Internetanschluss

Wer sich das bis hier hin noch nicht denken konnte, ja, es handelt sich um keinen fancy professionellen Anschluss. Das hier ist eine Handelsübliche 100/40 VDSL Leitung von Vodafone. Allerdings mehr als genug bis jetzt. Mit so ner Leitung machen Dienste wie eine eigene Cloud erst so richtig Sinn, da man mit 40 Mbit schon wesentlich mehr anfangen kann als z.b. mit 10 Mbit. Und jep, die IP Adresse ändert sich mit jedem Mal neu verbinden, mehr dazu in viertens.

3. Domain

Ursprünglich hatte ich früher immer diese kostenlosen Domains bei Anbietern wie dot.tk, aber das wurde mit der Zeit unpraktisch und ich wollte einfach mal was richtiges haben, so hab ich dann relativ günstig asagi.moe erstanden. War ganz überrascht, dass die noch frei war. Der Name ist inspiriert von meinem Lieblingscharakter aus einem Anime namen Strike the Blood, nämlich Asagi Aiba.

4. DNS Anbieter & Dynamischer DNS Service

Da die DNS Einstellungen von meinem Domain Anbieter einfach komplett nutzlos waren, hab ich zu einer alt bekannten Alternative umgeschlagen, nämlich Cloudflare. Hat bis jetzt immer wunderbar funktioniert und die API regt es sogar an, sich seinen eigenen DDNS Client zu bauen, vielleicht gibt’s so was ja aber auch schon, keine Ahnung. Ja, wie oben schon erwähnt bestehen die DNS Einstellungen aus 3 CNAME Einträgen, die alle auf die gleiche Domain deuten, nämlich die des Dynamischen DNS Services.

(more to come… ich schreib weiter, wenn ich Zeit dafür finde, da kommt auf jeden Fall noch mehr)