Google Code SVN Repository in Git Repository umwandeln

Möchte man sein Google Code Subversion Repository mit der kompletten History in ein Git Repository umwandeln so ist das erstaunlich einfach. Im ersten Schritt sollte man die Project committers unter Adminster -> Project Members entfernen (sicher ist sicher). Dann sollte unter Adminster -> Source der Repository Typ auf Git gestellt werden.

Hier wird dabei ausgegangen das die Projektstruktur in etwa so aussieht:

branches
tags
trunk

Zuerst legt man im Homeverzeichnis eine Datei namens .netrc an und füllt sie mit folgendem Inhalt:

machine code.google.com login  password geheim

Den genauen Inhalt erfährt man dabei auch wenn man auf die Google Code Seite https://code.google.com/hosting/settings geht. Bevor es weitergeht installiert man mittels:

apt-get install git-svn

das Paket git-svn. Dieses Paket ist dabei für den Großteil der Konvertierung zuständig. Nun öffnet man ein Terminal und gibt dort folgendes ein (der Projektname muss natürlich angepasst werden):

git svn clone --stdlayout https://invertika.googlecode.com/svn invertika
cd invertika
git remote add googlecode https://code.google.com/p/invertika
git push --all googlecode

Anschließend fügt man die Project committers wieder hinzu und kann nun mit dem Git Repository arbeiten. Problematisch ist allerdings, das das Push Limit 500 MiB beträgt. Größere Repositories kann man damit nicht ohne weiteres pushen.

Weitere Informationen gibt es unter:
http://code.google.com/p/support/wiki/ConvertingSvnToGit
http://code.google.com/p/support/issues/detail?id=5790
http://code.google.com/p/support/issues/detail?id=5816
http://code.google.com/p/support/wiki/GitFAQ

Neue MediaWiki Nutzer per Mail bestätigen

Vor ein paar Tagen schrieb ich einen Artikel wie man Spam in der MediaWiki bekämpft. Die Methode an sich ist nicht schlecht, weil keine Einträge mehr verändert werden. Allerdings gibt es immer noch einige Nutzer die sich angemeldet haben, allerdings klar als Spambots zu erkennen sind.

Um zu verhindern das sich solche Spambots überhaupt anmelden können gibt es die Extension ConfirmAccount welche unter http://www.mediawiki.org/wiki/Extension:ConfirmAccount zu finden ist. Die Extension sorgt dafür das ein MediaWiki Bürokrat den Account erst bestätigen muss. Das kann dabei so eingestellt werden, das dieser eine Mail bekommt sobald der Nutzer die Mailadresse bestätigt hat. Nach dem Download der Extension sollte diese entpackt werden und der Ordner ConfirmAccount in den extensions Ordner hochgeladen werden. Nun müssen noch die Einstellungen in der LocalSettings.php angepasst werden:

#ConfirmAccount
require_once("$IP/extensions/ConfirmAccount/ConfirmAccount.php");
$wgUseRealNamesOnly=false;
$wgAccountRequestMinWords=0;
$wgAccountRequestToS=false;
$wgAccountRequestExtraInfo=false;
$wgConfirmAccountContact="";

Anschließend muss die MediaWiki noch geupdatet werden. Mittels Shellzugang sieht das ganze so aus:

php maintenance/update.php

Weitere Methoden für das Update sowie Optionen der Erweiterung sind auf der entsprechenden Seite beschrieben. Danach ist die Erweiterung installiert und sollte ihren Dienst verrichten.

Das Invertika Update im November

Das Jahr neigt sich dem Ende und auch bei Invertika gibt es wieder neues zu vermelden. Wer Invertika nicht kennt, dabei handelt es sich um ein freies 2D-MMORPG welches unter Linux und Windows läuft. In diese Update wurde eine Menge Tilesets erweitert und verbessert. Das wirkte sich auch auf die Maps aus, so wurden die Innenräume von Nelaro größtenteils gemappt und auch das Wegsystem hat ein Update bekommen. An weiteren Sehenswürdigkeiten ist der Turm von Elys zu nennen der fertiggestellt wurde.

Das Mingathöhlensystem kann nun betreten werden und auch Liori sowie die Küste zum Brolerimeer wurden stark überarbeitet. Daneben wurden viele kleinere und größere Fehler behoben wie z.B. in Lauria und Ombrod. Desweiteren wurde einige neue Netheksäulen hinzugefügt.


Auch neue Items sind in diesem Update zu finden. Bei den NPCs wurden doppelte Sprites bereinigt und eine Menge neue NPCs hinzugefügt. Im Wiki hat sich in dieser Beziehung einiges getan, so sollten nun alle NPCs dort zu finden sein. Bei den Skripten wurden viele kleinere und größere Fehler behoben, wie z.B. Korrekturen am MacGuffin Quest.

Bei den Tools gab es auch einige Veränderungen. So wurde der Invertika Editor eingestampft und durch das ivktool ersetzt. Das ivktool ist dabei für die Kommandozeile gedacht, was auch die Nutzung in automatischen Prozessen erlaubt. Im Zuge dieses Umstieges wurden einige Verbesserungen vorgenommen, welche den Betrieb unter Linux stark verbessern. Daneben wurden Fehler beim rendern der Weltkarte und der Minimaps behoben.

Im Projekt selber gab es diesen Monat einige Diskussion bezüglich Qualitätssicherung. Hier wird sich in nächster Zeit sicherlich einiges tun. Bei manaserv haben wir weiter an der Implementation von Angelscript gearbeitet unter anderem am Context Manager. Wer jetzt neugierig geworden ist, der kann uns unter http://invertika.org besuchen. Eine Übersicht über die Welt gibt es dabei bei http://weltkarte.invertika.org/. Auch die Wiki ist sicherlich interessant.

Kleines CSS Rätsel unter WordPress

Responsives Design ist schon eine tolle Sache. Je nach den Fähigkeiten des Ausgabegerätes wird die Webseite angepasst. Vor einigen Wochen habe ich mich auch daran gemacht und mein Design um eine reponsive Komponente erweitert. Das ganze sieht auf kleineren Geräten nun so aus:

Dabei wird per CSS geschaut ob eine bestimmte Mindestbreite unterschritten wird:

@media screen and (max-width: 850px)
{
 ...
}

Wenn das der Fall ist werden bestimmte Elemente (wie die Siderbar) ausgeblendet, die Größe der Schriftart verändert, et cetera. Nur gibt es anscheinend ein Problem mit ungeklärter Ursache. Wenn ich auf einem Mobilgerät die Seite „Blog“ aufrufe so ergibt sich folgendes Bild:

Er ignoriert anscheinend das angepasste CSS für Bildschirme kleiner 850 Pixel und zeigt stattdessen die „normale“ Seite an. Dies passiert auf allen getesteten Geräten und auch nur auf der Blog Seite. Nun zum Rätsel: Woher kommt das? Über Ideen zur Lösung des Problems würde ich mich freuen :)

Weitere Informationen gibt es unter:
http://www.elmastudio.de/webdesign/webseiten-optimierung-fur-mobile-gerate-verschiedene-losungen-im-vergleich/
http://www.elmastudio.de/webdesign/diskussionsanregung-wie-wichtig-ist-die-webseiten-optimierung-fur-mobile-gerate-heute-schon/

Wikipedia und neue Autoren

Gestern las ich einen seht interessanten Artikel über einen neuen Wikipedia Autoren (zu finden unter http://www.schweizer-degen.com/2011/11/meine-gezahlten-tage-als-wikipedia-autor/). Mein Fazit des Artikels: „Die Artikel werden schneller gelöscht als man sie schreiben kann“.

Leider deckt sich das auch mit meiner Erfahrung. Schrieb man früher einen Artikel in der Wikipedia, welcher nicht ganz perfekt war, so gab es freundliche Autoren welche sich an die Korrektur machten und ihre Verbesserungen einbrachten.

Heute sieht es meist so aus, das man einen Artikel schreibt und wenige Minuten bis Stunden später mit einem Löschantrag zu kämpfen hat. Die Motivation eines Autors ist dann natürlich dahin. Warum für ein Medium schreiben in welchem meine Arbeit für die Katz ist?

Vielleicht sollte sich die deutsche Wikipedia ein wenig mehr an der englischen orientieren. Dort hat man das Gefühl das die eigenen Artikel ernst genommen werden, selbst bei einem Löschantrag dort, bekommt man genug Zeit die Mängel zu beheben, und wird nicht mit Phrasen (z.B. nicht relevant) abgespeist.

Bei der deutschen Wikipedia hat man meist das Gefühl, das sobald der Administrator oder der Antragsteller des Löschantrages das Thema nicht kennt, es sofort für irrelevant hält und der Artikel somit nichts wert ist. Wenn das in Zukunft so weitergeht, werden es wohl immer weniger Gelegenheitsautoren in der Wikipedia. Schade eigentlich…