Archiv der Kategorie: Suchmaschinenoptimierung SEO

Scrollen oder nicht scrollen – der Umgang mit langen Texten im Netz

Fast jedes Medium hat es einmal gemacht: mehr oder weniger sinnvolle Klickstrecken aus Bildern sollten den User zur Mausakrobatik animieren. Die Währung hieß damals Klickrate, je öfter man klickte, desto höher war der Wert der angezeigten Werbung. Das scheint zumindest teilweise korrigiert worden zu sein.

Doch bei Texten geht die Salami-Taktik weiter Die Zeit, das Süddeutsche Magazin und viele andere Websites verteilen einzelne Artikel auf mehrere Seiten.

Das galt als guter Stil, als Bildschirme noch Bildschirme waren und 14 Zoll maßen. Damals waren Mäuse mit Rädchen selten und der entnervte User musste den Cursor an den rechten Bildrand fahren, um sich beim Scrollen einen Tennisarm zu holen. Aus dieser Zeit stammt die Designweisheit, dass nichts beachtet wird, was außerhalb des Start-Screen liegt, also dem Bereich, den man ohne vertikales oder horizontales Scrollen sehen kann. Ergo müssen Texte, die über den Bildschirm reichen, in kleine Portionen aufgeteilt werden.

Ich war mal auf eine Seite gestoßen, die aus dieser Salami-Taktik ein Geschäft gemacht hat. Da stand ein etwas längerer Text kostenlos auf 20 Seiten verteilt und die komplette Fassung ließ sich als PDF käuflich erwerben.

Das klingt zwar kurios, aber gerade längere Artikel, die auf diese Weise zerstückelt werden, wird wohl kaum jemand wirklich zu Ende lesen. Vier Seiten dürften so die magische Grenze sein, wo auch der geduldigste Leser die Lust verliert. Zumal, wenn sein Surfgerät nicht so bequem ist wie ein PC. Mit einem Notebook-Touchpad oder einem Handy macht das wenig Spaß. Ärgerlich vor allem, wenn auf der letzten Seite nur ein kleiner Absatz steht, für den sich das Klicken gar nicht gelohnt hat.

Und leider bieten nur die wenigsten Seiten die Anzeige verteilter Artikel auf einer Seite an, die Zeit zum Beispiel. Viele Seiten bieten zwar eine Druckfunktion an, die einen ähnlichen Effekt hat – der ganze Artikel wird auf einer Seite angezeigt. Allerdings ist diese Funktion zumeist mit JavaScript verbunden, das den Druckerdialog des Browsers auslöst. Wer hier automatisch auf Return drückt und einen Drucker laufen hat, verschwendet einmal mehr unnötig Tinte und Papier. Die süddeutsche macht das zum Beispiel. Die Designer meinen wohl, die Menschen seien zu doof, den Drucker selber auszulösen.

Ein weiterer Nachteil verteilter Artikel besteht darin, dass man sie schlecht archivieren kann. Oder ist das die Absicht der Webbetreiber?

Ich würde heute ohne Wenn und Aber empfehlen, einen Artikel immer zusammenhängend auf eine Seite zu packen. Via Tracking kann jeder Webbetreiber feststellen, dass der User nicht bereit ist so oft zu klicken, wie der Webbetreiber es gerne hätte. Wir sind heute unheimlich klick- und tippfaul. Wer schon mal einen interessanten und längeren Diskussionsfaden im Heise-Forum konsequent lesen wollte, hat vermutlich spätestens nach dem zehnten neu aufgerufenen Beitrag aufgegeben, zumal die Hälfte der Beiträge sich auf „ROFL“, „LOL“ oder „SCNR“ beschränkt.

Mit den heutigen Smartphones wiederum ist das Scrollen einfacher als das Aufrufen neuer Websites durch das Berühren eines Links. Das Thema mobiles Web zwingt uns außerdem wieder dazu, über knappe Bandbreiten, lange Ladezeiten, Verbindungsabbrüche und weitere Ärgernisse nachzudenken, die uns noch aus der Modem-Zeit verfolgen. Die meisten bekannten Websites sind von der Performance her auf DSL angelegt und laden neben dem eigentlichen Inhalt noch einen Rattenschwanz an externen Inhalten, JavaScript, Werbebildchen und allerlei anderen Merkwürdigkeiten nach. Selbst bei DSL kann es immer noch mehr als zehn Skeunden dauern, bis die Seite komplett geladen ist. Im mobilen Web dauert das entsprechend länger und so lange möchte einfach niemand warten. Es ist also schon aus ökonomischer Sicht sinnvoll, zusammenhängende Artikel auf eine Seite zu packen.

Multimedia im Web – optimiert für Suchmaschinen und Menschen

Obwohl wir schon seit Jahren von Benutzerfreundlichkeit reben und jeder Webdesigner sich selbiges auf die Fahnen geschrieben hat, werden jeden Tag neue oft schicke und benutzerunfreundliche Websites online gestellt.
Ungeliebtes Stiefkind der USability-Gilde sind Dateien. Ich kann mich nicht erinnern, wann jemand das letzte Mal einen Beitrag zu benutzerfreundlicher Multiemedia geschrieben hat. Hier also die Basics:
– alle Dateien zum Herunterladen sollten einen sprechenden Namen haben. Eine Datei namens 1322xayserer5.pdf klingt ungefähr so spannend wie der Wetterbericht von 1990.
– Jede Datei sollte in einer angemessenen Qualität ausgeliefert werden. Ein 10 MB großes PDF, welches zu 90 Prozent aus Luft und Liebe besteht ist ebenso wenig hilfreich wie ein verrauschtes MP3.
– Auch nach 15 Jahren MP3 scheint sich der Sinn von ID3 noch nicht herumgesprochen zu haben. Da stehen Meta-Daten drin, die bei vielen MP3-Playern statt des Dateinamens angezeigt werden. Eigentlich schon seltsam, da investiert jemand mehrere Stunden, um einen schönen Podcast zu produzieren, spart aber 30 Sekunden ein, weil er seiner Datei keinen sprechenden Namen und keine ID3-Tags verpasst. Dabei kann er hier wunderbar Daten wie Autorennamen, Titel, Erstelldatum und Herkunftsort ablegen.
Und wozu das alles? Ganz einfach, bei der Flut an Daten gehen Dateien ohne sprechenden Namen oder Meta-Daten gnadenlos unter. Bestenfalls landen sie in einem Archiv, wo sie dann auf nimmer Wiedersehen verschwinden. Selbst bei einer gezielten Recherche könnte der Archivar sie kaum wiederfinden, denn die Datei besitzt ja weder Meta-Daten noch einen sprechenden Dateinamen.

Wer von den Webworkern noch nicht endgültig überzeugt ist, für den kommt jetzt das Totschlagargument: Suchmaschinen-Optimierung. Google und andere orientieren sich maßgeblich am Datei- bzw. Linknamen. Ob Suchmaschinenbots die Metad-Daten auslesen, ist mir nicht bekannt, es spricht aber auch nichts dagegen, auch diese Daten einzutragen.
Im Sinne der Benutzerfreundlichkeit ist es auch wichtig, Informationen als normale Website anzubieten, statt sie in ein PDF zu packen. PDFs verbessern vielleicht das Ranking, vor allem im wissenschaftlichen Bereich. Ob da aber mehr als die ersten Absätze tatsächlich ausgewertet werden, kann eher bezweifelt werden. Man sollte auch an die Nutzer mobiler Endgeräte denken, die es lieber vermeiden, weitere Anwendungen zu starten. Der Titel von PDF-Dokumenten wird auch als Titel in Suchmaschinen angezeigt, sollte also sprechend sein. Da die Formatierungen in PDF-Dateien wie Überschriften rein optisch sind, tragen sie in keinem Fall zum Ranking bei.

Sprechende Dateinamen sollten keine Leerzeichen oder Sonderzeichen enthalten. Die einzelnen Begriffe werden mit Bindestrichen getrennt, d. h. zum Beispiel: Benutzerfreundlichkeit-in-Multimedia-Dateien.
Für die Suchmaschine sind mangels weitere Informationen der Text rund um die Datei sowie der Linkname ausschlaggebend für die Indizierung. Allerdings ist es auch sinnvoll, in Links das title-Attribut einzusetzen, indem auch Details zur Datei eingetragen werden können.
Das Thema RSS wird sträflich vernachlässigt. Der Webworker sollte einmal einen kritischen Blick auf seine Feeds werfen und sich folgende Fragen stellen:
1. Erfahre ich aus der Überschrift, worum es geht?
2. Reizt die Überschrift einen Anderen, diesen Beitrag aufzurufen?
Wer nicht im Datenstrom untergehen möchte, sollte eine dieser Fragen mit Ja beantworten, besser beide.
Das sind alles keine Sonderleistungen, sondern Basisanforderungen benutzerfreundlicher Inhalte.

Richtig Suchen im Netz

Wer die klassischen Suchmaschinen intensiver nutzt, gerät schnell an deren Grenzen. Google macht den Eindruck, als ob seine Technik in den letzten zehn Jahren nicht entscheidend weiter entwickelt worden wäre. Googles Schwäche lässt sich in einem Wort zusammenfassen: Semantik. Mehr dazu in einem aktuellen Feature des DeutschlandRadio.
Ich wollte einmal recherchieren, ob Google seine beiden Betriebssysteme ChromeOS und Android für blinde Nutzer anpasst. Ebenso gut hätte ich eine Studie über die Verwendung des Wortes „blind“ anlegen können. „Blind“ wird im deutschen und scheinbar auch im englischen Sprachraum gerne auch verwendet, um Dummheit, Ingoranz und ähnlich negative Sachverhalte auszudrücken. Wer das Wort entsprechend einsetzt, ist selber nicht besonders helle.
Google kennt keine Semantik, deshalb versteht sein Algorithmus nicht den Unterschied zwischen: Blindheit = Sehschwäche und Blindheit = Nicht-Verstehen.
Nebenbei habe ich mich dafür interessiert, ob es Leitfäden für das richtige Suchen gibt. Die kurze Antwort lautet: Nein.
Richtig Suchen im Internet
SlideShare. Present yourself.
Liste mit 5 Einträgen
HOME
GO PRO
CHANNELS
EVENTS
UPLOAD
Listenende
 
Search
Liste mit 2 Einträgen
Connect
Domingos de Oliveira ▼
Listenende
Remove this ad

Richtig Suchen im Internet
5 minutes ago
Edit Presentation
Liste mit 8 Einträgen
Email
Favorite
Download
Embed
More…
Get featured on SlideShare’s homepage
Embed this presentationCopy the code below and paste it into your website.

Customize
Close
Listenende

Flash Player 9 (or above) is needed to view presentations.
We have detected that you do not have it on your computer. To install it, go
here.

Like this presentation?
Gefällt mir
Registrieren,
um sehen zu können, was deinen Freunden gefällt.

0 comments
Write a comment…
Embed Video
Subscribe to comments
Subscribe to comments
Post Comment

Remove this ad

Richtig Suchen im Internet – Presentation Transcript
Liste mit 1 Einträgen
1. No transcript available.
Listenende

Domingos de Oliveira Domingos de Oliveira

0 views, 0 favs, 0 embeds
more
Analytics

Related
Liste mit 17 Einträgen
Social Graffiti Konzept Social Graffiti Konzept
749 views
Google AdWords – Punktgenau und zielgerichtet werben Google AdWords – Punktgenau und zielgerichtet werben
789 views
Dossier: Leben in der Illegalität Dossier: Leben in der Illegalität
371 views
Dossier: Migrationsliteratur – Eine neue deutsche Literatur? Dossier: Migrationsliteratur – Eine neue deutsche Literatur?
1829 views
Web 2.0 fuer Unternehmen Web 2.0 fuer Unternehmen
958 views
Related
Client Virtualization: What Are My Options? Client Virtualization: What Are My Options?
1603 views
Checklist Internet, Intranet, Extranet Checklist Internet, Intranet, Extranet
916 views
Fang die Fische! Fang die Fische!
176 views
Die jungen Medien-Manager Die jungen Medien-Manager
283 views
Reputationsanalyse Versicherungen – Gegen Krise gut versichert?, KKundK Reputationsanalyse Versicherungen – Gegen Krise gut versic…
134 views
Feed Magazin Preview – Erste Ausgabe Feed Magazin Preview – Erste Ausgabe
1160 views
Marketing ist Chefsache – auch in der Abteilungsführung (Autor: Stefan Krojer) Marketing ist Chefsache – auch in der Abteilungsführung…
1266 views
Dossier: Medien und Diversity Dossier: Medien und Diversity
1309 views
Jasmine Pescheux Neue Medien Jasmine Pescheux Neue Medien
222 views
Messetraining Messetraining
507 views
Euregio etourism forum Einfuerung ins Internet Final Euregio etourism forum Einfuerung ins Internet Final
4764 views
Musikförderung in der DACH-Region Musikförderung in der DACH-Region
280 views
Listenende

More by user
Liste mit 6 Einträgen
Webseiten mit Screenreadern testen Webseiten mit Screenreadern testen
30 views
Web-Monitoring und Beobachtung mit kostenlosen Tools Web-Monitoring und Beobachtung mit kostenlosen Tools
111 views
PDF für Alle – Barrierefreie und zugängliche PDF mit OpenOffice PDF für Alle – Barrierefreie und zugängliche PDF mit Ope…
135 views
Barrierefreies Print – Publikationen zugänglich für Alle Barrierefreies Print – Publikationen zugänglich für Alle
157 views
Bilder barrierefrei verwenden Bilder barrierefrei verwenden
91 views
Warum Webdesigner und Nutzer oft getrennte Wege gehen Warum Webdesigner und Nutzer oft getrennte Wege gehen
65 views
Listenende
View all presentations from this user
Remove this ad

About this presentation
Liste mit 5 Einträgen
Visible to everyone
Embedding is allowed
Secret URL is disabled
Edit privacy settings
Uploaded on Dec 28, 2010
Listenende

USAGE RIGHTS

CC Attribution-NonCommercial License CC Attribution-NonCommercial License

STATS
Liste mit 6 Einträgen
0Favorites
0Comments
0Downloads
0Views on
SlideShare
0Views on
Embeds
0Total Views
Listenende
More Stats

ACCESSIBILITY

View
text version

ADDITIONAL DETAILS
Liste mit 2 Einträgen
Uploaded via
SlideShare
Uploaded as
Microsoft PowerPoint
Listenende
Flag as inappropriate
File a copyright complaint

Categories
Liste mit 2 Einträgen
category
 
Technology
Listenende

Follow SlideShare
Liste mit 3 Einträgen
Twitter
Facebook
SlideShare Blog
Listenende
0tweets
0shares
WordPress
Blogger
More options
Analytics
 
Search
Liste mit 6 Einträgen
LEARN ABOUT US
About us
Work with us
Our Blog
Press
GET HELP
Listenende
Liste mit 6 Einträgen
USING SLIDESHARE
Quick Tour
Terms of Use
Privacy Policy
Copyright & DMCA
Community Guidelines
Listenende
Liste mit 4 Einträgen
SLIDESHARE OUTSIDE
Facebook App
LinkedIn App
SlideShare Mobile
Listenende
Liste mit 5 Einträgen
PRO & MORE
Go Pro
Capture Leads
Advertise with us
Get featured on homepage
Listenende
Liste mit 4 Einträgen
DEVELOPERS & API
Developers section
Developers Group
Widgets for your blog
Listenende

 SlideShare is the world’s largest community for sharing presentations. Upload and share on blogs, Twitter, Facebook or LinkedIn. 45 million people use
SlideShare every month for research, sharing ideas, connecting with others, and generating business leads. SlideShare also supports documents, PDFs, and
videos.
Get an account.

Like SlideShare on Facebook
Follow SlideShare on Twitter

© 2010 SlideShare Inc. All rights reserved.
Die lange Antwort lautet: Wer nach Büchern für Suchmaschinen, deren Funktionsweisen und besserer Anwendung sucht, stößt auf ein unbeackertes Feld. Der Internet-Buchhändler spuckt Dutzende von Büchern für Suchmaschinen-Optimierung oder Search Engine Marketing aus, aber nur ein Buch über Suchmaschinen an sich. Es ist der bekannte Klassiker von Stefan Karzauninkat, die Suchfibel, die auch online zugänglich ist. Die Buchausgabe ist doch recht betagt, die Online-Version wird nach einiger Zeit wieder aktualisiert.
Das muss sich einmal durch den Kopf gehen lassen: es gibt mehr Bücher, die uns erklären, wie man Suchmaschinen manipuliert als Bücher darüber, wie man richtig sucht.
Eine gute Quelle und ausführliche Quelle ist das Manual von Dirk Lewandowski, das es online und dort auch zum Download als PDF gibt.
Das Regionale Rechenzentrum Niedersachsen (RRZN) in Hannover gibt für Angehörige von deutschen Hochschulen EDV-Leitfäden heraus, unter anderem einen Leitfaden für Suchmaschinen. Dazu stellt der Herausgeber resigniert fest:

Wir stellen fest, dass unsere Studierenden wohl nur noch Google zur Kenntnis nehmen und völlig ignorieren, dass durch (eventuell zusätzlichen) Einsatz anderer
Suchhilfen Suchergebnisse deutlich verbessert werden können. Deshalb ist der Absatz dieses Handbuches »Suchen & Finden« drastisch zurückgegangen und folglich
werden wir dieses Buch nicht neu auflegen.

Quelle
Wer dennoch ein wenig tiefer recherchieren muss oder möchte, ist mit der ebenfalls vom RRZN betriebenen Suchmaschine Metager gut bedient. Der typische Google-Nutzer dürfte von den Auswahlmöglichkeiten erschlagen werden, die sich eröffnen, wenn man auf der Seite ein wenig runter scrollt. Wer aber höhere Ansprüche an seine Suchergebnisse stellt, kommt nicht daran vorbei, sich intensiver mit Boolschen Operatoren und ähnlichem zu beschäftigen oder eben nach Alternativen zu Google und Co. zu suchen. Metager zeigt, welche Möglichkeiten und Alternativen es gibt.
Hier ein Text, der sehr schön die Schwierigkeiten des Suchens in unstrukturierten Daten darstellt und die mögliche Lösung in der Bayes-Statistik sieht.

Linkstabilität – warum man auf die Öffentlich-Rechtlichen nicht mehr verlinken sollte

Ich habe mir neuerdings wieder den Broken Link Checker für WordPress installiert. Von den rund 800 internen und externen Links waren 80 404, also tot. Während ich einige Links fehlerhaft gesetzt hatte – das waren hauptsächlich interne Links zu eigenen Beiträgen, zeichnet sich bei den externen Links eine klare Tendenz ab: Viele Inhalte verschwinden wieder aus dem Netz.

Kurioserweise sind es gerade die großen Plattformen, deren Inhalte depubliziert werden, wie die Fachwelt zu sagen pflegt. Der aktuelle Medienstaatsvertrag verpflichtet die Öffentlich-rechtlichen dazu, bestimmte Inhalte gar nicht, andere nur für eine bestimmte Zeit bereit zu stellen. Das vermindert nur nebenbei drastisch ihre Verlinkungsattraktivität. Viele Inhalte, auf die ich verlinkt hatte, sind mittlerweile offline. Menschen, die Suchmaschinenoptimierung betreiben und ihre Seite allgemein in Schuß halten, haben viel Arbeit damit, diese Links aufzuspüren und zu entlinken.

Andere Webseiten verändern ihre Seitenstruktur. Wenn man wie ich gerne auf die Druckversion verlinkt und selbige durch JavaScript erzeugt wird, gehen bei einem Relaunch ebenfalls die Links verloren. Dabei wird der Druck-Algorithmus geändert. Deswegen sind viele Links 404. Es hat aber seinen Grund, warum ich die Druckversion verlinke: Die Zeit hatte früher und Technology Review bis heute die Angewohnheit, auch kurze Artikel auf zwei oder mehr Seiten zu verteilen.

Die 404-Plage erinnert uns daran, dass das Internet eben doch kein lückenloses Gedächnis hat. Niemand weiß, wie viele Texte, die nur im Web standen täglich verschwinden und die nirgendwo archiviert wurden. Denn es kann durchaus sein, dass einige Texte einfach aus dem netz genommen wurden. Archive.org ist eine nette Geschichte, aber die Jungs könnten – selbst wenn sie wollten – nicht alles speichern. Google tut das zwar – vermutlich – aber die dürfen schon aus urheberrechtlichen Gründen dieses Archiv nicht bereit stellen.

Wir neigen ein wenig dazu, die Informationen, digital gespeichert werden können, für unvergänglich zu halten. Dabei muss jedem klar sein, dass jeden Tag große Mengen an Daten verloren gehen, niemand weiß, wie viele das sind. Bücher verschimmeln in Archiven, einige Archive werden unfreiwillig tiefer gelegt, Magnetbänder zerfallen, auch die CDs und Minidiscs, die so unverwüstlich aussehen, können unlesbar werden.

Auf dem Weg zur Echtzeitsuche

Was RSS-Feeds schon länger möglich machen, scheint jetzt auch bei den großen Suchmaschinen Einzug zu halten: die Echtzeitsuche. Google und Bing arbeiten mit Twitter zusammen, um aktuelle Tweets in die Suche einzubinden. Google möchte zudem auch Social Communities wie Facebook in seine Suche einbinden, wie Technology Review berichtet. Interessant dabei ist, dass Google zur Relevanzanalyse offenbar einen ähnlichen Algoritmus wie seinen PageRank verwendet,das heißt, die Relevanz eines Tweets hängt von der Zahl der Follower ab. Ein Tweeter mit vielen Mitlesern soll einen Teil seines Ranks auf Tweeter mit weniger Lesern vererben können, wenn er diesem folgt. Damit könnte das Thema Suchmaschinenoptimierung in die nächste Runde gehen.
Das dürfte vor allem für Marketing-Fachleute und Trend-Scouts interessant sein, um die Resonanz auf Produkte und Kampagnen in Echtzeit zu untersuchen. Gepaart mit Geotags, wie sie von GPS-Handys mitgeliefert werden, können Echtzeitsuchmaschinen tatsächlich einen praktischen Zweck bei der Katastrophenprävention spielen. Wenn in einer Region überdurchschnittlich oft nach Grippe, Grippemitteln oder verwandten Begriffen gesucht wird, könnte in dieser Region ein verstärkter Bedarf nach Impfmitteln bestehen.
Ich sehe da allerdings im Augenblick keinen Vorteil für den Normaluser, der mit der Blogsuche und Google News im Grunde schon alle interessanten Instrumente hat. Was aber tatsächlich fehlt ist ein effizienter Filter bei der normalen Suche. Wer etwa ein technisches Problem hat, muss sich durch jahrealte Foreneinträge wühlen, nur um festzustellen, dass seine Frage im Jahr 2005 nicht beantwortet wurde. Es gibt aber auch keine Möglichkeit, Ergebnisse auszufiltern, die ein bestimmtes Alter überschritten haben. Da viele Websites auf den Servern der Suchmaschinen zwischengespeichert sind, wäre es für sie kein großes Problem festzustellen, dass eine Seite sich seit mehreren Jahren nicht verändert hat. Zudem haben die meisten Forenbeiträge wie auch Weblogs eine Datumsangabe. Gerade vorhin habe ich nach einem Produkt gesucht, von dem ich in einem Artikel gelesen habe. Nach einer mehrminütigen erfolglosen Suche habe ich endlich festgestellt, dass es den Artikel gar nicht mehr gibt.
Tatsächlich scheint eher die Fixierung auf Aktualität an Relevanz zu verlieren.

Paid Content – das Ende des Links

Sollte sich das Modell des Paid Content tatsächlich durchsetzen, dürften die Leserzahlen der entsprechenden Anbieter stark sinken. Dafür dürften die Leserzahlen von Kommentarmedien wie Perlentaucher und vielen Blogs steigen.
Ein großer Teil der Leser – niemand weiß, wie viele – werden über Social Bookmarking, über persönliche Leseempfehlungen über Twitter oder Mail oder über Links in Weblogs und ähnlichen Medien vermittelt.
Das System bricht aber in sich zusammen, denn Links werden unattraktiv, wenn der Schreiber nicht erwarten kann, dass sein Leser bereit ist, für den verlinkten Inhalt zu bezahlen bzw. in irgend einer Form Zugang dazu hat.
Das zweite Problem ist banaler, lohnt aber der Erwähnung: Da Paid Content die Leserzahl naturgemäß drastisch senkt, gibt es auch entsprechend weniger Leute, die Inhalte überhaupt empfehlen können. Sie müssen die Inhalte ja erst zur Kenntnis nehmen können, um über sie berichten zu können.
Davon können paradoxerweise jene profitieren, die ihre Inhalte – oder wesentliche Teile davon – kostenlos anbieten. Sie werden zahlungsunwillige Kunden oder Leute, denen die Zahlungsmodalitäten zu kompliziert sind, in Scharen anlocken und entsprechend stärker von Empfehlungen Dritter profitieren. Frei nach dem Matthäus-Prinzip: Wer Leser hat, dem werden noch mehr Leser gegeben.
Um ehrlich zu sein muss man aber zugeben, dass niemand genau sagen kann, ob die Gewinne durch höhere Werbeeinahmen die Verluste durch kostenlosen Content kompensieren. Aufmerksamkeit mag eine wertvolle Währung im Web sein, aber mit Aufmerksamkeit kann man keine Redakteure, Fotoagenturen oder Serverparks finanzieren.

Web 3.0 auf dem Sprung?

Das clevere Web scheint auf dem Sprung zu sein – mal wieder, muss man wohl sagen. WolframAlpha hat etwa bei Dr. Web und weiteren Blogs gewisse Erregung ausgelöst. Stephen Wolfram ist nun keiner der üblichen Highsporns, immerhin hat er Projekte wie Mathematica realisiert.

Allerdings handelt es sich um ein kommerziell tätiges Unternehmen, wie so oft setzen Amerikaner eine – vielleicht – gute Idee in einem kommerziellen Unternehmen um. Das heißt praktisch, vieles von dem, was verlautbart wird, mag reines Marketing sein, wir dürfen gespannt sein.

Aber auch Deutschland scheint aus den Suchmaschinenlöchern zu kommen. Die Maschine Frag Sammy verspricht vollmundiges: Die Entwickler  versprechen

Egal ob chatten, suchen, Fragen beantworten oder rechnen – Sammy kann es!

Wobei man allerdings sagen muss, daß chattende Programme nicht gerade neu sind. In den verstaubten Kammern meines Gehirns erinnere ich mich sogar, daß es solche Programme schon recht früh gab. Der Computer-Philosoph Joseph Weizenbaum hatte sich so etwas ausgedacht. Etwas Neues wäre höchstens, zwei dieser Programme sich miteinander unterhalten zu lassen. Da könnte was Interessantes, zumindest aber amüsantes herauskommen.

Doch ich schweife ab. An den beiden Projekten kann man erkennen, wie unterschiedlich stark die Aufmerksamkeit fokussiert. Ein Mensch aus dem fernen Amerika schafft es mit markigem Marketing mehr Aufmerksamkeit zu erzielen als ein deutsches Startup mit ähnlichen Versprechen.

Doch Wettbewerb belebt das Geschäft. Man darf gespannt sein. Eine Konkurrenz für Google wäre eine solche Antwortmaschine allerdings nicht. Eine Anwendung, die eine Frage beantwortet, ist keine Suchmaschine.

Edit: Einen Betatest von WolframAlpha gibt es in der technology review.

Konzepte statt Programme – wie man mit vielen Programmen umgehen lernt

Es kommt mittlerweile sehr häufig vor, dass sich Programme als Quasi-Standard etablieren. Es ist aber sinnvoller, Konzepte von Programmen zu lernen, anstatt sich auf ein bestimmtes Programm festzulegen. Das Ziel muss sein, die Grundlagen zu lernen, so dass man mit wenig Einarbeitungszeit jedes Programm verwenden kann, welches die gleiche Aufgabe erledigt.

Warum das? Weil es immer passieren kann, dass ein neues Programm das alte ablöst. So passiert mit Quake Express, einer Desktop-Publishing-Software, die offenbar von Adobes InDesign auf dem PC verdrängt wird. Ähnlich passiert das schon seit längerem mit Photoshop, das etwa gegen Paintshop antritt.

Man muss sich dabei bewußt machen, dass es sich dabei um Programme handelt, die im professionellen Bereich verwendet werden. Dass diese Programme dennoch von Laien verwendet bedeutet aber nicht, dass sie professionell damit arbeiten können.

Außerdem sind sie unheimlich teuer. Es lohnt also eher nicht für den Privatanwender, diese Software zu kaufen, um sie zu erlernen. Stattdessen gibt es eine Handvoll Aufgaben, die er damit erledigen möchte und deren Konzepte er verstehen muss.

In Photoshop etwa ist dies der Umgang mit Pixel- und Vektorgraphiken, mit verschiedenen Dateiformaten, verlustfreier und verlustbehafteter Komprimierung, Farbmanagement und verschiedenes mehr. Hinzu kommen Dinge wie Gradationskurven, Filter und vieles mehr.

Hat man all diese Dinge einmal an einem beliebigen Programm gelernt, kann man mit ein wenig Einarbeitung in die jeweilige Oberfläche und ein wenig Recherche mit jedem vergleichbaren Programm umgehen. Der Umstieg auf ein besseres Programm ist dann kein großes Problem mehr.

Das gleiche gilt natürlich auch für Textverarbeitung oder Tabellenkalkulation. Oder für das ganze Betriebssystem. Das Kernproblem vieler Unternehmen beim Umstieg von einer Software auf eine andere besteht darin, dass die Mitarbeiter sich allzusehr mit der etablierten Software angefreundet haben.

Andersherum kann man tatsächlich mit Photoshop arbeiten, wenn man keine Ahnung von Graphikbearbeitung hat. Dabei kann auch brauchbares herauskommen. Nach Art eines Rezeptes etwa wird haargenau beschrieben, wie Farbe, Helligkeit und Tonwert korrigiert werden. Man spielt ein wenig mit den Reglern herum, speichert in JPEG – das kennt schließlich jeder – und fertig ist das Foto.

Doch die Zeit, die man für die Einarbeitung in Grafikbearbeitung gespart hat, investiert man doppelt und mehrfach in die Einarbeitung in andere Programme, in die Recherche nach Arbeitsschritten, die hier aus dem Rahmen fallen. Zudem ist man unfähig, ein Problem oder eine Aufgabe, die man durchführen möchte, klar zu formulieren und treibt somit jeden, der Einem helfen könnte in den Wahnsinn.

Wikia Search am Ende

So berichten Golem und Heise, in den zugehörigen Foren ist recht viel Häme zu lesen, wahrscheinlich alles Google-Nutzer.

Ich hatte mich schon gefragt, was daraus geworden ist, schließlich war lange nichts davon zu hören. Das Problem ist typisch für Projekte im Web 2.0: Es konnte keine kritische Masse gewonnen werden, damit das Projekt sich selbst trägt. Das Problem läßt sich als Netzwerk-Effekt beschreiben: Je größer ein netz von Personen ist, desto schneller wächst es. Dabei muss ein gewisser Punkt überschritten werden, den Malcolm Gladwell als Tipping-Point bezeichnen würde.

Wenn eine bestimmte Zahl von Leuten zusammen kommt, trägt und entwickelt sich das System von selbst weiter. So etwas muss bei „Wer kennt wen“ passiert sein, dem langweiligsten Social Network der Welt. welches nicht trotz, sondern wegen seiner Einfachheit erfolgreicher ist als die Riesen Facebook und MySpace.

Wikia scheint diese kritische Masse nicht zusammen gebracht zu haben. Für Häme ist da nur Platz, wenn man mit Google, Yahoo und Live zufrieden sein könnte. Dies dürfte das entscheidende Problem von Wikia gewesen sein. Die Wikipedia hatte keine Konkurrenz, als sie entstand. Sie versammelte unter einer Adresse alle Informationen, die man sich vorher mühsam im Web zusammen suchen musste.

Hätte es damals die Encyklpadia Britannica oder den Brockhaus im Web gegeben, wäre WP vermutlich nur ein Nischenprodukt für Spezialthemen wie aktuelle TV-Serien und ähnilches geblieben, was die regulären Lexika nicht behandeln.

Wie baue ich ein tabellenfreies Webseiten-Layout

Die Layouttabelle war vor der Entwicklung der Layoutsprache CSS die einzige brauchbare Möglichkeit, komplexe Layouts zu entwickeln. Seitdem hat sich viel getan: Die Unterstützung für CSS ist so weit etabliert, dass Tabellenlayouts langsam aussterben (sollten). Stattdessen setzt ausgerechnet der Computerverlag Heise konsequent auf Tabellen.

Zunächst einmal muss man verstehen, wie in CSS positioniert und formatiert wird. Alle Elemente – bis auf den body – werden in Div-Containern eingefasst <div>Element</div>. Alle Elemente, die in Div-Containern stehen, lassen sich über externe Stylesheets exakt positionieren.

Die Positionierung erfolgt über die Attribute von position: left, right, top und bottom.Die Höhe und Breite können unabhängig von position mit width und height definiert werden. Das heißt natürlich, dass man nur zwei Attribute von position definieren kann, also entweder left und top oder left und bottom und so weiter. Die Dimension wird über width und height bestimmt.

Alle großen Elemente wie Spalten sollten absolut positioniert werden, sprich:

{position: absolute; left:0; top:0; width: 1000px; height: 200px}

Es gibt die Eigenschaft float, die aber der Internet Explorer nicht unterstützt.

Das könnte unsere Kopfzeile werden, in dieser Kopfzeile können sich Elemente wie Bilder befinden. Im westlichen Kulturkreis liest man von links nach rechts und guckt zuerst nach oben links. Alle großen Container sollten daher von oben links absolut definiert werden. Möchte man etwa ein Objekt unten rechts positionieren, riskiert man, dass das Objekt bei kleinen Bildschirmen außerhalb des Sichtbereiches liegt.

Ein wichtiger Hinweis: Der Screenreader von Blinden greift auf den Quelltext zu und weiß nicht, wie Elemente auf der Seite selbst definiert wurden. Das heißt: Die Elemente der Website müssen im Quellcode genau in der Reihenfolge aufgeführt werden, in der sie auch auf der Seite präsentiert werden. Das heißt in der Regel: von oben links nach unten rechts, wobei die Fußzeile das letzte Element im Quelltext ist. Anders macht es etwa Golem, so dass ein Screenreader hier zuerst die Stellenanzeigen liest, die aber auf dem Bildschirm NACH der Artikelliste angezeigt wird.

Hier meine Seite als Beispiel und hier deren CSS-Code.