Compiz + Beryl = Coral

Die Spatzen pfeifen es schon von den Dächern:
In den Beiträgen des Compiz-Forums und der Beryl-Mailing-List wird die erneute Zusammenarbeit von Beryl und Compiz diskutiert. Der neue Name für das Projekt könnte Coral sein.

Find ich gut den Schritt. Nach dem Fork hat man jetzt doch bemerkt, dass beide wohl auf derselben Basis stehen. Quinn Storm behält sich für Beryl jedoch das Recht vor, zu “re-forken”, wenn die Zusammenarbeit nicht funtkioniert:

It is indeed a concern that we might lose our freedom in a ‘merge’, but I have been convinced that it isn’t a major concern (and of course we reserve the right to re-fork).

(via: linux.com)

machine check exception

Arg!

Kernel Panic.

Wie ich die Wörtchen hasse.

Und dazu noch eine Machine-Check-Exception-Fehlermeldung.
Schlauerweise habe ich mir den Fehlercode natürlich nicht gemerkt. Die Machine Check Exception ist zwar bei mir Debian-Standard-Kernel aktiviert (config_x86_mce). Allerdings werden die Codes wohl nicht ins kernel.log geschrieben.

Hat da jemand einen Plan, wo die geloggt werden?

Ich tippe zwar mal aufs Netzteil, das wohl auf der 12V-Schiene zu wenig Strom liefert. Nur wissen würd’ ich’s schon lieber, wer der Verursacher ist. Ein gutes Netzteil kostet ja auch ein wenig. Das wollt’ ich dann doch nicht einfach so auf Verdacht kaufen.

Von OPML zu HTML (OPML2HTML)

Ich bin endlich mal wieder dazu gekommen meine gar sehr veraltete Blogroll auf den neuesten Stand zu bringen. Am Einfachsten geht das natürlich über ein Export meines Feedreaders Akregator. Aus der erzeugten OPML lässt sich mit Hilfe eines PHP-Skriptes eine HTML-Datei erzeugen, die man schnell auf einer bestehenden Seite einbauen kann.

Das Problem, welches ich heute hatte: Netcologne ließ mich heute ca. eine Stunde lang nicht ins Internet um nach dem Skript zu suchen. :/

Aber mein nettes Linux ließ mir noch die Bash, die für solche Dinge bestens geeignet ist. Folgendes Skript kann man bestimmt viel einfacher und eleganter schreiben, aber als Skript-Dilletant konnte ich mir nur folgendes aus man awk und man sort zusammenreimen:

echo "<ul>" > opml.html && cat akregator.opml | grep htmlUrl | awk -F\" '{print "<li><a href=\"" $(NF-25) "\" " "title=\"" $(NF-1) "\">" $(NF-23) "</a> <a href=\"" $(NF-7) "\">(Feed)" "</a></li>"}' | sort -t\> -bfk 3 >> opml.html && echo "</ul>" >> opml.html

Um das Chaos etwas aufzudröseln:

Da ich gerne eine Liste mit den abonnierten Feeds haben möchte, schreibe das entsprechende öffnende Listentag des HTML-Markup in eine Datei namens opml.html:

echo "<ul>" > opml.html

Dannach öffne die exportierte OPML und schreibe dessen Inhalt nach stdout:

cat akregator.opml

Suche mir dann alle Zeilen, in denen das Suchmuster htmlUrl vorkommt:

grep htmlUrl

Benutze awk, setzt den Seperator auf das Zollzeichen (”) und schreibe einen Listenpunkt als a-Link mit Title-Tag und Feedangabe und setze an die entsprechenden Stellen die korrespondierenden Werte ein, die mit dem Seperator aus der OPML-Zeile ausgelesen werden (z.B.: $(NF-1)):

awk -F\" '{print "<li><a href=\"" $(NF-25) "\" " "title=\"" $(NF-1) "\">" $(NF-23) "</a> <a href=\"" $(NF-7) "\">(Feed)" "</a></li>"}'

Jetzt sortiere das Ganze alphabetisch über den Linktext (k 3), nimm dabei das Endtag (>) als Trenner, ignoriere Leerzeichen am Anfang (b) und verhalte dich gefälligst case-insensitiv (f); ach ja: Schreib das bitte in die schon angefangene Datei opml.html ohne den bisherigen Inhalt zu löschen (nämlich den öffnenden Listentag):

sort -t\> -bfk 3 >> opml.html

Fein, und jetzt schreib den geschlossenen Listentag auch noch in die Datei:

echo "</ul>" >> opml.html

Das wars. Das kann man jetzt relativ schmerzlos in bestehende HTML-Seiten kopieren. Das heißt, wenn das Internet wieder erreichbar ist.:)

Das kleine Skript hat gegen über PHP auch den Vorteil, dass ich meine OPML nicht erst auf einen PHP-fähigen Account laden oder lokal einen Webserver anwerfen muss. Der Vorteil gilt natürlich nur für *nix-Benutzer

Wer das Skript als ausführbare Datei haben möchte der bediene sich: opml2html
Mittlerweile habe ich das Script auf die OPML angepasst, welche vom Akregator aus dem KDE4 exportiert wird.

Etwas missfällt mir aber dennoch: Wenn man meine Blogroll durschaut, sieht man, dass die Sonderzeichen nicht richtig einsortiert werden. Vielleicht hat ja jemand einen Tip für mich, warum das so ist und wie das beheben kann.

Made my day

Früh den Akregator anwerfen und folgendes Zitat lesen:

< beorn_> hehe, meine linux installation bricht immer mit der fehlermeldung “login:” ab :)

Fein, das macht meinen Tag. :)

(via: Jörn)

Köln

Eine schöne Wohnung ist gefunden. Der Umzug ging auch halbwegs reibunglos über die Bühne. Es ist mittlerweile recht wohnlich eingerichtet. Nur ein bisschen Farbe an den Wänden und so Krimskrams – was man halt bei so einem Umzug neu benötigt – fehlt halt noch.

Ein paar Fotos vom Rhein, wo wir die Tage spazieren waren, hab ich auch noch irgendwo rumliegen. Ich werd’ die nächsten Tage mal paar hier reinstellen.

Internetanschluss funktioniert auch schon. Und nach ca. sechs Wochen ohne Update ist mittlerweile auch schon Xorg 7 in etch gelandet. Ein apt-get update hat mir also heute erstmal ein Menge an unglösten Abhängigkeiten entgegen geworfen und verweigert vorerst seinen Dienst. Mal schauen, ob ich das die Tage wieder entdröseln kann.

Vielleicht sollte ich gleich auf auf stable umsteigen und mir die backports holen.

Dateiystem-Vergleich auf Debian Etch

Verglichen werden ext3, reiser, xfs und jfs. Den Artikel gibt’s dort und die Zusammenfassung hier:

These results replicate previous observations from Piszcz (2006) about reduced disk capacity of Ext3, longer mount time of ReiserFS and longer FS creation of Ext3. Moreover, like this report, both reviews have observed that JFS is the lowest CPU-usage FS. Finally, this report appeared to be the first to show the high page faults activity of ReiserFS on most usual file operations.

While recognizing the relative merits of each filesystem, an system administrator has no choice but to install only one filesystem on his servers. Based on all testing done for this benchmark essay, XFS appears to be the most appropriate filesystem to install on a file server for home or small-business needs:

It uses the maximum capacity of your server hard disk(s)
It is the quickest FS to create, mount and unmount
It is the quickest FS for operations on large files (>500Mb)
This FS gets a good second place for operations on a large number of small to moderate-size files and directories
It constitutes a good CPU vs time compromise for large directory listing or file search
It is not the least CPU demanding FS but its use of system ressources is quite acceptable for older generation hardware

While Piszcz (2006) did not explicitly recommand XFS, he concludes that “Personally, I still choose XFS for filesystem performance and scalability”. I can only support this conclusion.

neuere Einträge | ältere Einträge