CommentsTrack light: Cookie & mod_rewrite
Published 2005-10-21, 15:26
Mein Betatest des neuen CommentsTrack light (CTl) läuft nun schon einige Zeit, und das auch recht erfolgreich. Es gibt immer noch kein Backend, aber das ist eigentlich recht schnell zusammengebastelt.
Mehr Sorgen machte mir der umständliche Einbau in eine Domain. Ist ein bestimmter Cookie gesetzt, werden alle Abfragen auf die Index-Datei über ein anderes Script geleitet. Dazu musste ich bisher jedoch Veränderungen an der Index-Datei vornehmen, im Falle von WordPress an der index.php.
Vorhin kam mir dann die Idee, das ganze schon eine Ebene zuvor ablaufen zu lassen und die .htaccess-Datei zu nutzen die auf den meisten Apache-Server ja nutzbar ist. Ich wusste nicht ob man per mod_rewrite Cookies auslesen kann, im Manual habe ich nun allerdings wirklich was passendes gefunden:
RewriteCond -> Server-Variables -> HTTP_COOKIE
Damit sollte es möglich werden die Anfragen ohne Änderungen an den eigentlichen Script-Dateien auf das CTl zu leiten – muss ich nachher gleich mal ausprobieren ob das so wirklich funktioniert.
[Update] Es scheint tatsächlich zu funktionieren. Nutzer die
[1] das Cookie haben (Cookie „owner“, Wert „1“),
[2] die Startseite aufrufen,
[3] nicht die Domain selbst als Referer
[4] oder gar keinen Referer haben
[5] werden auf die Datei commentstrack.php umgeleitet.
# BEGIN CommentsTrack light
RewriteCond %{HTTP_COOKIE} .*owner=1.*
RewriteCond %{REQUEST_URI} ^/$
RewriteCond %{HTTP_REFERER} !HTTP_HOST
RewriteCond %{HTTP_REFERER} !^$
RewriteRule ^(.*)$ /commentstrack.php [L]
# END CommentsTrack light
Jemand hier der mir sagen könnte ob das von der Syntax her alles passt?
[Update 2] Die dritte RewriteCondition war ziemlicher Müll, habe ich in einem extra Beitrag nun aber gefixt.
girl32 – Smart fashion
Published 2005-10-21, 14:14
Ist zwar für Mädels, aber beeindruckt haben mich girl32 mit ihren Ideen allemal:
- Mütze für Pferdeschwänze
- Schal mit eingebauter Tasche
- Handschuhe mit denen man auch iPod oder Handy bedienen kann
via Signal vs. Noise
Seekoo plant Großes!
Published 2005-10-21, 13:30
Heute morgen wurde ich mal wieder von Seekoo, bzw einer ihrer Callcentermitarbeiterinnen mit zuckersüßer Stimme, angerufen. Sie versuchen immer noch „Topplatzierungen“ auf den Suchergebnisseiten für einen monatlichen Festbetrag zu verkaufen, händisch administriert von meinem Ansprechpartner.
Dieses System fand ich schon immer doof und das hat sich bis heute nicht geändert. Google und Overture haben doch gezeigt wie ein solches System funktionieren muss.
Ich konnte der Dame jedoch einige Zahlen entlocken, die vielleicht interessant sein könnten:
– angeblich 21 Millionen unique Besucher pro Monat, das wären 700 000 pro Tag
– angeblich 5 500 Werbekunden
Nächsten Monat soll zudem eine „Europaneuheit“ veröffentlicht werden. Über die darf noch nicht viel gesagt werden, es wird dazu jedoch einige geheime Pressekonfernzen geben (!?). Auf jeden Fall soll das einhergehen mit Anzeigenschaltungen in Zeitschriften und sogar TV-Werbespots. Ich bin ehrlich gespannt.
Ach ja übrigens, es ist extrem uncool bei Unternehmen die mit Internet zu tun haben morgens um 8:37 Uhr (bzw generell vor 11 Uhr) anzurufen. Nicht gut für die Laune…
Disallow.de – Die Idee
Published 2005-10-21, 02:28
Heute bin ich wieder über eine Projektidee von mir und bull, meinem Moderatoren-Kollegen bei Abakus, gestolpert: Disallow.de
Bei Abakus gibt es seit jeher ein Forum nur für Themen über Suchmaschinenbots, Spider und andere Robots. Ein großer Anteil der Beiträge sind Beschwerden über penetrante oder übereifrige Bots, Bots die sich für etwas anderes ausgeben als was sie sind und so weiter. Oft bleibt den Nutzern gar nichts anderes übrig als bestimmte Useragents oder IP-Bereiche komplett auszusperren.
Bisher kümmern die meisten Webmaster sich nur darum, wenn es wirklich brennt und ein Bot auffällt, andere führen für sich selbst ihre Blacklisten – einen zentralen Punkt zum Sammeln gibt es bisher jedoch nicht. Die Idee war nun also eben eine solche Sammelstelle einzurichten. Die Domain Disallow.de gehört mir schon einige Zeit und würde hier perfekt passen.
Ziel des Projektes soll es also sein alle unangenehmen oder „bösen“ Bots mit IP, Useragent und Beschreibung in einer Datenbank abzuspeichern und zu klassifizieren. Über Schnittstellen und Tools werden diese Daten dann dem Webmaster zur Nutzung bereitgestellt.
Ich such mal alles zusammen was ich zu Disallow schon so zusammengeschreibselt habe, vielleicht lässt sich das ganze ja reaktivieren… Lust dazu hätte ich.
„Auch aus Steinen, die in den Weg gelegt werden, kann man Schönes bauen.“
Published 2005-10-20, 15:32
Hallo brandeins-Leser,
es war der große Schriftsteller Johann Wolfgang von Goethe der das gesagt hat:
http://www.20six.de/kuska/archive/2004/12/29/1rbkca4zw1yg5.htm
http://www.dr-mueck.de/HM_Denkhilfen/HM_Hilfreiche_Saetze.htm
http://seelennahrung.de/
Das Gewinnspiel selbst findet sich übrigens hier:
http://www.brandeins.de/home/gewinnspiel.asp?MenuID=14
Viel Glück!
Und an alle anderen: Nur ein kleines Spielchen… die Auswertung des letzten brandeins-Gewinnspieleintrags kommt demnächst.
Häufige Fehler in Newslettern
Published 2005-10-19, 19:42
An- und Abmeldung
· Versand von eMails ohne dass Einverständnis vorliegt
· Web: Anmeldeformular versteckt
· Anmeldung umständlich
· keine Beachtung der Datensparsamkeit
· unnötige Daten abgefragt
· kein Hinweis auf pseudonymen Bezug
· kein Hinweis auf die zu erwartenden Inhalte
· kein Hinweis auf die Erscheinungsweise
· kein Hinweis auf Datenschutz
· Hinweis auf Datenverarbeitung
· bei personenbezogener Auswertung keine extra Einwilligung
…
http://www.marketing-boerse.de/Fachartikel/details/65-weit-verbreitete-Fehler-in-Newslettern
Wirrer Kalauer
Published 2005-10-19, 16:02
heute ohne duschen aus dem haus gegangen. aber auch ohne badewannen.
http://wirres.net/article/articleview/3196/1/6/
Warum Google gar nicht „simple“ ist
Published 2005-10-19, 15:48
The truth about Google’s so-called „simplicity“:
Anybody can make a simple-looking interface if the system only does one thing. If you want to do one of the many other things Google is able to do, oops, first you have to figure out how to find it, then you have to figure out which of the many offerings to use, then you have to figure out how to use it. And because all those other things are not on the home page but, instead, are hidden away in various mysterious places, extra clicks and operations are required for even simple tasks — if you can remember how to get to them.
http://www.jnd.org/dn.mss/the_truth_about_goog.html
Dass wirklich jeder ein einfaches und dabei auch nocht gutes Interface bauen kann, glaube ich zwar nicht, aber ansonsten hat Don Norman nicht ganz unrecht. Die Haupt-Suche ist einfach und direkt zu finden, bei den ganzen anderen Services sieht es leider anders aus.
typokurz – Ein Crashkurs für Typographie
Published 2005-10-18, 22:41
von Christoph Bier:
Dieses kurze Dokument soll einen schnellen Überblick über ein paar aus meiner Sicht wichtige und gleichzeitig leicht einzuhaltende (mikro)typografische Regeln geben, die die Leserlichkeit eines Textes erhöhen. […] Mit diesen Regeln sind die typografischen Fehler abgedeckt, die mir beim Lesen verschiedenster Texte am häufigsten aufgefallen sind.
http://www.zvisionwelt.de/typokurz.pdf
via hessis weblog (Stefan Walter)
Amazon, die Datenkrake…
Published 2005-10-18, 22:34
Da lese ich die wunderbare Erstausgabe des PDF-Magazins „Treehouse“ von ParticleTree und klicke auf einen der vielen Links um mir Freakonomics von Steven D. Levitt and Stephen J. Dubner bei Amazon.com näher anzuschauen.
Mir gefällt was ich da so lese, also kopiere ich den Titel in die Zwischenablage und gehe zu Amazon.de. Dort habe ich schon den Titel in die Suchmaske eingegeben, als ich merke dass eben dieses Buch auf meiner persönlichen Startseite groß empfohlen wird.
Einerseits natürlich toll und auch aus Webworkersicht sehr interessant. Aber irgendwie macht es mir auch ein wenig Angst…