Kategorien-Archiv CRNET

In den Strudel gezogen – Social Media extreme

In den letzten Monaten sind ein paar Dinge parallel passiert, die kollidieren und dadurch momentan richtig anstrengend sind.

Das Eine:
Die EU in ihrem Regulierungswahn will „Elektrische Zigaretten“ unter der Tabakrichtlinie zwängen (nachdem festgestellt wurde, das es keine Arzneimittel sind). Na toll! Nachdem also festgelegt wurde, das Gurken in Gläser passen müssen, in denen sie verkauft werden und Glühbirnen angeblich umweltschädlicher als Energiesparlampen (glücklicherweise gibt es LED), und welche Biegeradien Bananen nicht unter- oder überschreiten dürfen, müssen nun also auch noch die „Dampfen“ reguliert werden. Dazu gleich noch mehr.

Das Andere:
Ich hab im September „umgestellt“ vom Zigarettenrauchen auf „Elektrisch Rauchen“ – wobei die Bezeichnung an sich schon falsch ist, denn Rauch entsteht bei Verbrennung, diese findet aber nicht statt, sondern es wird ver- bzw. gedampft. Ich hatte zu dem Zeitpunkt, als ich mir wieder einmal (2006 hatte ich soetwas schon mal) eine „elektrische Zigarette“ gekauft habe, nicht vorgehabt mit dem Rauchen aufzuhören. Ich wollte lediglich im Büro Dampfen statt zu qualmen (wegen Dreck, Asche, Dicker Luft und so).

Was dann passiert ist:
Wie geasgt, 2006 hatte ich bereits elektrische Zigaretten gehabt, das war ganz nett für eine Weile, und irgendwann wurde es eklig. Der Grund: die damals neue Geräte haben einfach nicht so gut funktioniert wie das Zeug, was es heute gibt. Aber als ich nun anfing elektrisch zu rauchen zu dampfen, war das so ein unglaublich anderer Genuß, das ich seit dem keine Zigarette mehr angefasst habe. Das Zusammenspiel von Technik und den dazugehörigen Liquids ist inzwischen so toll, das ich damit niemals aufhören möchte. Warum auch, es ist vom Rauchen nur noch das „gute“ übrig: Nikotin und die Handlung des Inhalierens. Das Nikotin ist beim Rauchen das allerkleinste „Problem“, die echte Gefahr geht von den 4000 Unbekannten Schadstoffen im Rauch der Unkontrollierten Verbrennung von behandelten Pflanzenblättern aus.

Was passieren sollte:
Die Geißeln unserer Demokratie: Pharmakonzerne und Tabakkonzerne (immerhin war es diesmal nicht die Finanz- oder Öl-Mafia) wollen elektrische Zigaretten vom Markt vertreiben. Mit allen ihnen zur Verfügung stehenden Mitteln. Die Tabakkonzerne haben Angst, das ihnen die Raucher wegrennen, und die Pharmakonzerne haben es in den letzten 200 Jahren nicht geschafft, ein Produkt zu entwickeln, was die Menschen vom Rauchen wegbringt. Und nun haben Sich Produkte „von selbst“ entwickelt, mit Komponenten, die schon lange bekannt sind. „Von selbst“ heisst, das Die Menschen, die gemerkt haben das da was ganz tolles entsteht, gemeinsam über Foren, Youtubevideos, Mailinglisten usw. diese Produkte verbessert und weiterentwickelt haben. Es ist also quasi ein OpenSource-Lifestyle-Produkt. Und das passt natürlich nicht in das Weltbild globaler Konzerne, die vom Patentverkauf leben.

Mehr Informationen über das E-Rauchen

Und dann passiert’s:
Nachdem aber festgestellt wurde, das die Dampfen keine Arzneimittel sind (BigPharma hat es nicht geschafft) sollte nun die Technik unter die Tabakverordnung gezwungen werden. Und das hätte wär fast ganz fix durch die Hintertür passiert, wenn nicht ein paar Dampfer Wind von der Sache bekommen hätten und dagegen Sturm gelaufen wären.
Sind früher Demonstrationen noch mit Trommeln, Plakaten, Megaphonen passiert, ist so etwas in der EU ja nicht mehr möglich, schon wegen der Reisekosten und der zeit die das in Anspruch nehmen würde. Heutzutage demonstriert man online! Wenn es ein Thema mittels eines Hashtags in die top Ten-Trendliste (Links auf der Twitterseite) schafft, wird es von Politik und Presse auch wahrgenommen. Politik reicht in dem Fall, denn die Presse ist auch in diesem Zusammenhang zensiert (Auch die beissen nicht die Hand die sie füttert).

So wurde in den Dampfer-Foren zu einer Hashtag-Attack aufgerufen, die Tags: #ecigs und #EUecigBAN haben es an bisher 4 Abenden in Folge auf Platz 1 oder 2 der Trends geschafft. In Deutschland, in Frankreich und in UK (Die Spanier und die Italiener schwächeln etwas).

Wenn man so eine Lawine antritt, dann sollte man allerdings beachten, das man (je nach Einstellung) jeden Retweet per Mail kommuniziert bekommt, und eine Benachrichtigung auf Mobilen Geräten, und in der Software, die man benutzt. Mein handy hab ich 20 Minuten nach Start ausgemacht, es hat garnicht mehr aufgehört zu vibrieren. Noch immer werden meine Tweets retweetet und ich hab die Benachrichtigungen dazu erst einmal abschalten müssen.

Die Lawine rollt – und es war auch in professioneller Hinsicht eine extrem Interessante Erfahrung.

Noch ein paar Links zum Thema:

http://www.focus.de/…/eu-eu-kommission-plant-verfassungsbruch-wie-demokratie-zur-posse-verkommt

https://www.youtube.com/watch?v=AHVbLk3787k (Video-Interview, die FDA in USA warten ab was in der EU zu dem Thema gemacht wird)

http://www.ecigarette-research.com/…/142-scandalous-propaganda-from-a-pharmaceutical-company

http://www.eureporter.co/…/opinion-eu-bureaucrats-plan-to-protect-cigarette-and-drug-markets-while-killing-smokers/

https://secure.avaaz.org/en/petition/The_European_Parliament_Save_electronic_cigarettes_from_excessive_EU_regulation/

 

In 42 Tagen ist Weihnachten

Das ist zwar so unbedeutend wie uninteressant, aber ich fand das als Überschrift niedlich. Da ich aber den letzten Beitrag vor über einem Monat geschrieben habe, musste mal wieder was zum lächeln her.

Der Oktober ist vorbeigejagt wie im Fluge, wir arbeiten an unserem neuen Projekt, das wird irre spannend, mehr verrate ich derzeit nicht. Nur das es weniger mit IT und Internet zu tun hat, dafür mit der Schaffung reeller Werte. Da freu ich mich nach 25 Jahren „EDV“ schon sehr drauf.

Es sind auch wieder 2 neue Websites online gegangen: Kosmetikstudio Wannssee und TAP-Massivhaus. Letztere basiert auf der gleichen Grundlage wie auch die CRNET-Website, aber das erkennt man deutlich.

Das war’s – weitermachen! 🙂

Spamhaus spinnt wohl

Da hat eine von diesen DNS-Blacklisten doch tatsächlich das ganze /17er Provider-Netz auf eine Blacklist gesetzt, das sind 32.000 IP-Adressen. Nicht zu fassen. Dumm nur, das unser Netz darin liegt.

Naja, ist ja nicht das erste mal, das es falsche Positive gibt, und darum sollte man das auch nicht ungeprüft benutzen. Es gibt natürlich genug die das dennoch machen, die reden derzeit nicht mit uns.

Sollten Sie betroffen sein, unser Netz ist 212.53.159.0/24, also 212.53.159.0 – 212.53.159.255. Das sollte beim Empfänger auf die Whitelist.

Grundsätzlich sollte man diese DNS-Blacklists mit Vorsicht genießen, und sich nicht auf eine verlassen. Sinnvoll erscheint mir das nur, wenn man mindestens 3 unabhängige Blacklists benutzt und diese vergleicht, also 3 testen und erst blocken, wenn es 2 positive gibt. Meine Wahl wären Spamcop, Spamhaus und die Manitu-Liste. Aber wie gesagt, nur wenn mindestens 2 von 3 triggern.

Was gerade jetzt passiert ist, als wenn eine Bürgerwehr eine ganze Strasse sperrt, weil in einem Haus 2 Mieter eine zu laute Party feiern. Das ist auch technisch gesehen total 90th.

Ich weiss schon, warum ich das nicht benutze, sondern mich auf zuverlässigere Methoden verlasse.

Update 1.10.2013, 14:20

Hallo zusammen,

nachdem Spamhaus nach 24 h immer noch nicht reagiert hat, hab ich mich nun entschlossen, vorübergehend über einen anderen Server zu relayen. Sie müssen nichts dazu machen, das ist nur eine Info.

Mein Mailserver leitet den gesamten ausgehenden Verkehr nun über einen Zwischenserver weiter, den Artfiles (bei denen wir hosten und auch den Netzblock beziehen) uns zu diesem Zweck zur Verfügung gestellt hat, und der in einem anderen IP-Adressbereich steht.

Die SPF-Records aller Domains im DNS sind bereits angepasst, es sollten also keine Probleme auftreten.

 

TYPO3-Extension responsive_template

Eine sich anpassende Website mit TYPO3.

Bei WordPress schon fast normal, bei TYPO3 allerdings nicht: Websites, die Ihre Darstellung der entsprechenden Browserbreite anpassen, und zwar von einer angemessen Größe auf großen Monitoren, bis hin zu kleinen Handydisplays hochkant.. Die Extension „responsive_template“ soll das können. Als jemand, der die letzten Jahre mit „TemplaVoila“ und „Templates für Templavoila“ eine große Routine entwickelt hat, eine kleine Herausforderung.

Die erste Herausforderung war allerdings, ein leeres TYPO3 zu installieren, denn die derzeit aktuelle Version 4.7.14 läuft erstmal nicht. Erst mit manuellem Patch der localconf konnte man überhaupt das Backend aktivieren, aber das ist ein anderes Thema.

Die Extension „responsive_template“ lässt sich dann direkt über den Extension-manager installieren. Nach dem Aktivieren ist dann eine Rootpage anzulegen, ein Template zu erzeugen und wiederum über den Extension-Manager das Install-Script auszuführen.

Anschließend braucht man erstmal einige Seiten, vorzugsweise teilweise mit Unterseiten, und einen SYS-Folder für Footer und Slider. Die Slider kann man wiederum in einen SYS-Folder unterbringen, für den Footer brucht man eine Seite, damit man Zugriff auf die Spalten hat.

Über den Konstanten-Editor in den Template-Tools kann man dann recht einfach die Anpassungen vornehmen. Als wichtigstes sind hier zunächst die Seiten einzutragen, die Footer und Slider beherbergen, auch können hier Logo und (ganz wichtig:) eine eigene CSS-Datei verlinkt werden. Die beiden letztgenannten bringt man sinnvoller Weise im Fileadmin unter, damit diese beim Nächsten Update nicht verloren gehen.

Eine der Stärken dieser Extension sind die mitgelieferten Seitenvorlagen und das Page-Setup. Hier ist sonst bei „normaler“ Erstellung einer Seite relativ viel Zeit, Vorarbeit und Fachwissen notwendig, nun kann man direkt nach dem Konstanten-Editor im Seitenbaum Seiten anlegen und selbigen die verschiedenen Vorlagen zuweisen. Für diese „Basics“ musste man nicht eine Zeile TYPOSCRIPT tippen oder html-templates vorbereiten – ein unschätzbarer Vorteil auch für Einsteiger.

Wenn man dann ein paar Seiten angelegt und mit etwas Text befüllt hat (die Extension „Lorem Ipsum“ hift), kann man sich mal im Frontend umsehen. Die Seiten präsentieren sich schlicht, farblich fast neutral und sehr aufgeräumt – was ich persönlich besser finde, als die Farborgien von TTV, bei denen man ersteinmal 5 KB CSS produzieren muss, um es farbneutral zu bekommen.

Das Logo wird immer im Retina-Modus angezeigt, der Slider kann ungepatcht nur Bilder crossfaden, beides linkt immer auf die Startseite, falls zu einem Sliderimage keine andere Page-ID angegeben wurde. Die Dokumentation ist … sagen wir mal „sehr knapp“, aber ist ja auch nicht für Laien gemacht. Allerdings ist sie so knapp, das man vieles nur nur durch Ausprobieren herausbekommt.

Die Responsive-Funktion checkt den zur Verfügung stehenden Platz beim Aufruf. Eine Größenänderung während man sich auf einer Seite befindet, ist nur für den Slider Wirkungslos, aber der Rest der Seite skaliert wie erwartet, und auch das Menu blendet ab einer bestimmten Größe von Dropdown auf Select-Feld. Es werden ungepatcht im Dropdown-Menü 4 und im Selector 2 Ebenen Navigationstiefe unterstützt, wobei dich letztgenanntes auf die Einrückung bezieht, die Seiten sind verlinkt, als wären sie in der 2. Ebene.
Die Extension liefert aber „nur ein Leeres Blatt“ – jegliche gestalterischen Aktionen müssen auf die Fähigkeit der Anpassungen abgestimmt werden.

Die Extension „responsive_template“ unterstützt auch mehrsprachige Seiten (schon von Hause aus 3). Sie läuft unter den Versionen 2.7 und 6.1 von TYPO3 (Stand heute).

Insgesamt eine runde Sache, die eine gute Grundlage bildet, um Seiten aufzubauen. Der Autor selber hat die Grenzen dieser Lösung gut erkannt, die aber auch TYPO3 setzt.
Eine Extension, die man im Auge behalten sollte, wenn man gern eine TYPO3 Seite haben möchte, die auch direkt auf mobilen Endgeräten genutzt werden kann. Die Alternative sind sind nicht-skalierende Layouts, die durch Doppeltap auf die entsprechende zoomen, oder eine Erkennung des Gerätes mit jeweils eigenen CSS-Dateien für das Layout. Alles 3 Varianten, die in der Praxis üblich sind.

Gute Arbeit „klaus_ger“ 🙂 Wenn eine Website damit produktiv online geht, werd ich es auch explizit erwähnen.

Website testen mit wget – auf der Suche nach 404ern

Kaputte Links und fehlende Bilder bleiben bei einem Relaunch einer Website nicht aus – insbesondere dann nicht, wenn Großteile des Inhaltes direkt in die Datenbank übertragen wurden und ganz besonders nicht, wenn man zu allem Überfluss auch noch ein anders CMS nimmt als vorher.

Man braucht also einen Bericht, der einem die Fehler aufzeigt.

Nur bedingt hilfreich nach einem Umzug sind die Google Webmastertools, da diese nicht in Echtzeit funktionieren. Außerdem bekamen im vorliegenden Fall alle Blog-Beiträge neue Adressen und dann ist die Liste endlos.

Und ich mach so etwas gern am eigenen Rechner ohne externe Services.

Es gibt etliche Tools, um Websites komplett zu kopieren oder zum „offline-Browsing“ herunter zu laden, eines jedoch ist auf jedem Linux-Rechner schon von Hause aus an Bord, und zwar „wget“. Gibt es auch für OS-X.

Ich hab dazu in der Kosole mir auf dem Schreibtisch einen Ordner angelegt und bin hinein gewechselt. Das hat den Grund, daß ich dann weniger Pfade tippen muss und letztendlich nur einen Ordner wieder löschen muß.

Das Zusammengesteckte Kommando war dannwget -o result.txt -d -S -m -p https://www.crnet.de und ich brauchte nach Abschluß nur in der „results.txt“ nach “ 404 “ (man beachte die Leerzeichen) zu suchen.

Allerdings haben wir den debug-Modus einschalten müssen, damit wir sehen können, was der referrer war. Es ist ja nicht nur wichtig zu wissen, was nicht gefunden wird, sondern auch wie darauf verlinkt wird.

Das sah dann z.B. so aus:

---request begin---
GET /wp-content/themes/pindol/css/skins/red/images/menu_arrow.png HTTP/1.0
Referer: https://www.crnet.de/wp-content/themes/pindol/css/skins/red/images.css?ver=1.3
User-Agent: Wget/1.12 (darwin10.3.0)
Accept: */*
Host: www.crnet.de
Connection: Keep-Alive
---request end---
HTTP request sent, awaiting response... 
---response begin---
HTTP/1.1 404 Not Found

Es ist also von der Fundstelle etwas nach oben zu scrollen, um zu sehen, das ein Bild fehlt, welches zum Style gehört (Referer). Und da zeigt sich dann auch der Grund, warum wir das im Debug-Modus machen: wir brauchen in diesem Fall das verweisende Dokument.

Nach dem ersten Durchlauf über meine gesamte Website nach dem Umzug hatte ich 2 Bilder, die noch eingespielt werden mussten, und ca. 20 Stellen, bei denen ich die Änderung des Bildverweises im verweisenden Dokument vorgenommen habe.

Nun ist meine Website 404er-frei!

Begehrlichkeiten geweckt

Also mit so einer Resonanz auf meine neue Homepage hab ich nicht gerechnet!

Eine weitere Site stellen wir gerade um von TYPO3 auf WordPress und ich habe habe 3 weitere Anfragen von Kunden im Queue.
Danke für das Kompliment!

Allerdings fallen mir zwischen den beiden Systemen auch deutliche Unterschiede auf, so daß sich das Klientel für das eine oder andere langsam herauskristallisiert, aber dazu mach ich mal einen eigenen Bereich, wenn ich alle Infos zusammengetragen habe – vielleicht sogar mit einem Pro/Contra-Formular, welches Fragen in Bewertungen „konvertiert“.

Aber auch Google interessiert sich sehr für meine Website, das liegt sicherlich auch an den „eingereichten“ Sitemaps, die mit TYPO3 ja nie so funktioniert haben, wie man sich das gewünscht hat. Mit WP 3 Klicks und ab dafür. Nicht überbewerten! Wenn eine Seite gute Menüs hat, braucht man eigentlich keine Sitemaps, die erleichtern dem Googlebot die Arbeit lediglich.

Google ist sowieso so eine Sache für sich: da beschwert sich die Suchmaschine doch tatsächlich in den Webmaster-Tools, das es den Admin-Bereich nicht scannen darf. Woher weiss der das es den gibt? Da muss doch der Trackingcode über meinen Browser die Links verfolgt haben und dem Bot verraten haben, das es da noch mehr gibt. Naja, ich hab allen Bots nun verboten da rumzuschnüffeln und gesperrt ist es auch.

Aber Beeindruckend war es schon, was google auf meinen Seiten so veranstaltet hat:
Crawler Amok

TYPO3 und die Umlaute in Dateinamen

Die TYPO3-Installationen auf den Cloud-Accounts haben (bisher) keine Umlaute in Dateinamen unterstützt. Der alte Uploader hat Umlaute noch in die Mehrzeichen-Derivate gewandelt (z.B. ä wurde ae), mit dem Umschalten auf UTF-8 ist das entfallen.

Der Effekt: im TYPO3-Backend hat schon in der Dateiliste das Vorschaubild nicht funktioniert, die Dateien konnte man auch sonst nicht verwenden, sondern musste sie umbenennen oder mit anderem Dateinamen neu hochladen.

Gestern hatten wir (endlich) mal das Dateisystem und LOCALE-Settings auf UTF-8 umgestellt, und Umlaute in Dateinamen wurden dann auf der Konsole schonmal richtig angezeigt, aber eben nicht im Backend in der Dateiliste.

Das Artfiles-Support-Team hat herausgefunden, das man TYPO3 noch zwingen muss, die Locale-Settings auch in UTF-8 zu verwenden, auch wenn man schon Zeichensatz und Filesystem dahingehend gezwungen hat. Hier also der vollständige Patch für die localconf von TYPO3:

// UTF-8 Patch
$TYPO3_CONF_VARS['SYS']['UTF8filesystem'] = '1';
$TYPO3_CONF_VARS['SYS']['setDBinit'] = 'SET NAMES utf8;'.chr(10).'SET SESSION character_set_server=utf8;'.chr(10).'';
$TYPO3_CONF_VARS['BE']['forceCharset'] = 'utf-8';
// Problem Umlaute
$TYPO3_CONF_VARS['SYS']['systemLocale'] = 'en_US.utf8';

Wirkt für mich irgendwie alles doppelt, aber was soll’s, Hauptsache funktioniert.

[one_second] Für CRNET-Kunden

Wenn Sie den Eintrag in der TYPO3-localconf nicht selber vornehmen können, machen wir das für Sie, kurze Nachricht genügt.[/one_second]

[one_second] Für alle anderen, die diesen Eintrag gefunden haben, weil sie die Problematik gegoogled haben: bitte vorher auf der Konsole die LOCALE-Settings überprüfen bzw. anpassen, sonst kann das ziemlich unangenehme Effekte haben.  Die System-locale-settings von typo sollten mit dem Server harmonieren.[/one_second]

 

CRNET testet

Erstens: #hashtags und was #facebook daraus macht
Zweitens: #tinydesk #WordPress App für #iPhone
Drittens: #twitterfeed mit neuem Setup auf dieser Homepage

Posted using Tinydesk blog app

Erstes Social Tool aktiviert: Facebook

Keine 24 Stunden ist es her, das ich die neue Website in Betrieb genommen habe, und schon hab ich den nächsten Schritt getan: Facebook connected.

Ich hab hierfür das original WordPress-Plugin von Facebook verwendet, und gleich mal die Feedback-Formulare unter den Posts auf Facebook geswitched. Außerdem sollte dieser Beitrag im Anschluss an die Veröffentlichung auch direkt in der CRNET-Timeline erscheinen – na da bin ich ja mal gespannt.

Wo sind die iPad Seiten?

Auf meiner „alten“ Homepage hatte ich eine Reihe von Seiten mit folgenden Titeln:

  • Mobiles Büro mit dem Apple iPad
    • Arbeiten am iPad: Office-style Anwendungen
    • VPN am iPad (auch iPhone): LPTP PPTP IPSec
    • Arbeiten durchs iPad: Remote Consolen für Windows und Linux
    • Telefonieren mit dem iPad

Diese Seiten hatte ich im Sommer 2010 erstellt, als das erste iPad gerade ein paar Monate zu haben war, und die Bewältigung der verschiedenen Arbeitsbereiche noch eine echte Herausforderung war, es nur wenige Apps in Apple’s AppStore gab und die allerwenigsten optimiert für’s iPad.

Schon 2012, als ich den VPN-Bereich neu machen wollte (damals gab es ein Update für die Fritz-Boxen, so das man mit iOS ab Version 5 darauf tunneln konnte) fiel mir auf, das alles komplett veraltet war und überholungswürdig.

Als ich in den vergangenen Tagen meine Homepage von TYPO3 auf WordPress umgezogen habe, so konnte ich zwar die News-Datenbank konvertieren, die Seiten allerdings musste ich neu machen und mit Copy&paste übertragen.

Die iPad-Seiten waren jedoch inzwischen so veraltet und inhaltlich auch inkorrekt, das sie nicht verdient haben, diesen Weg mit zu machen.
Sie sind im digitalen Nirvana gelandet.

Was aber immer noch stimmt:

Vodafone macht’s VPN kaputt

Vodafone verwendet in seinem UMTS-Netz einen Zwangsproxy. Das ist mir schon mal bei jemandem aufgefallen, der in einem DSL-freien Gebiet per Datenfunk online ist (über Vodafone), hatte mir aber über die Konsequenzen keine Gedanken gemacht.

Bei PPTP (L2TP natürlich ebenso) ist das aber das Herumfummeln an den Datenpaketen „tödlich“. Ergebnis: es war kein Problem über WiFi-Connect einen Tunnel ins Rechenzentrum einzurichten, jeglicher Test per 3G schlug aber fehl. Stutzig machte mich der Umstand, das am Server nicht ein Datenpaket in diesem Zusammenhang ankam.

Die Gegenprobe über einen IPSec-Tunnel eines Kollegen zeigt aber: das Problem tritt bei IPSec nicht auf.