Popular Convention

Das schöne an zentralen Sammlungen ist das man sie relativ einfach auswerten kann. In diesem Fall geht es um die Auswertung der GitHub Repositories. Wie der Name „Popular Convention“ andeutet geht es darum aus den Quelltexten bestimmte Informationen über bevorzugte Konventionen wie z.B. Leerzeichen vs. Tabs zu extrahieren.

Popular Convention und Scala

Popular Convention und Scala

Das Ergebnis kann man sich auf der Webseite http://sideeffect.kr/popularconvention/ für die Sprachen Javascript, Java, Python und Scala anschauen. Die Software zur Auswertung ist dabei freie Software und steht unter der MIT Lizenz und kann unter https://github.com/outsideris/popularconvention bezogen werden.

Webhosting mal anders

Webhoster gibt es wie Sand am mehr und meist funktioniert es so, das man Paket A, B oder C bucht und dementsprechend 100 Subdomains, 100 Mailadressen, 10 GiB Speicher und 100 GiB Traffic (oder so ähnlich) zur Verfügung hat. Heute habe ich erfahren das es auch anders geht. Man stelle sich einen Webhoster vor bei man seine Seite hosten kann und dafür bezahlt was man möchte, wobei der Mindestpreis einen Euro pro Monat beträgt.

Klingt komisch, ist aber so. Erklärt wird das von den Betreibern so, dass auch andere Webhoster eine Mischkalkulation betreiben und dies auch hier so ist, die die mehr zahlen, zahlen mehr, die die weniger zahlen, zahlen weniger und am Ende ist hoffentlich genug Geld in der Kasse um die Mitarbeiter und die Technik zu bezahlen.

Besagter Webhoster hört auf den Namen Uberspace und kann unter https://uberspace.de/ gefunden werden. Neben der Standardkost (MySQL, PHP, et cetera) gibt es unter anderem auch Ruby, Perl, Python, Lua, Erlang und node.js. Die Einschränkungen sind dabei in der Hausordnung erklärt. Was haltet ihr von diesem Konzept?

Der Twitter Radiergummi unter Mac OS X

Vor einiger Zeit hatte ich beschrieben wie man den „twitter-eraser“ unter Ubuntu installiert. Heute gibt es das ganze für Mac OS X. Dazu öffnen wir das Terminal und geben dort folgendes ein:

git clone https://github.com/ilf/twitter-eraser
git clone git://github.com/tweepy/tweepy.git
cd tweepy
sudo python setup.py install
cd ..
sudo rm -r tweepy/

Die weitere Einrichtung ist im Artikel der Installation für Ubuntu ausreichend beschrieben. Nun müssen wir nur noch einen Cronjob eintragen, damit das Skript regelmäßig ausgeführt wird. Dafür geben wir im Terminal:

EDITOR=nano crontab -e

ein und füllen die Datei mit folgendem Inhalt:

*/45 *    * * *   python /Users/seeseekey/radiergummi.py

Danach muss das ganze nur noch gespeichert werden (Strg + O) und anschließend kann „nano“ wieder beendet (Strg + X) werden. Damit ist das Skript eingerichtet.

twitter-eraser unter Ubuntu installieren

Bei „twitter-eraser“ handelt es sich um ein Werkzeug (in Form eines Pythonskriptes) zum löschen von alten Tweets. Möchte man das Skript unter Ubuntu ausführen/einrichten sind folgende Schritte im Terminal nötig:

git clone https://github.com/ilf/twitter-eraser
apt-get install python-tweepy

Anschließend sollte man die Datei „radiergummi.py“ bearbeiten und dort die entsprechenden Limits einstellen. Für den „Consumer key“, das „Consumer secret“, den „Access token“ und das „Access token secret“ besucht man dann die Webseite https://dev.twitter.com/apps und generiert diese dort, indem man eine neue Applikation anlegt. Wichtig ist dabei das man in den Einstellungen den „Application type“ auf „Read, Write and Access direct messages“ stellt.

Nun muss nur noch der entsprechende Cronjob eingerichtet werden. Dazu wird mittels „crontab -e“ die entsprechende Datei geöffnet folgende Zeile hinzugefügt:

*/45 *    * * *   python /home/seeseekey/radiergummi.py

Damit wird das Skript alle 45 Minuten ausgeführt. Allerdings sollte man es vorher noch manuell ausprobieren und die Funktionsfähigkeit zu überprüfen. Kürzer sollte man die Cron Zeit im übrigen nicht einstellen, da per OAuth nur 350 Updates pro Stunde getätigt werden dürfen.

Weitere Informationen gibt es unter:
https://seeseekey.net/archive/8209
https://seeseekey.net/archive/8132
http://wiki.ubuntuusers.de/Cron

twitter-eraser

Alte Tweets automatisch zu löschen ist eine Idee die nicht nur ich hatte. Auch andere haben solches ein Werkzeug entwickeln. In diesem Fall trägt es den Namen „radiergummi.py“ und ist unter https://github.com/ilf/twitter-eraser zu finden. Das ganze ist dabei ein Pythonskript und für den Aufruf via „cron“ vorgesehen. Um es zu benutzen wird noch die Python Bibliothek „tweepy“ benötigt. Anschließend kann man das ganze konfigurieren (wie viele Tweets, DMs et cetera sollen erhalten bleiben) und benutzen.