Schlagwort-Archive: Technik

Studieren zuhause – Vorlesungen auf dem Sofa hören

Obwohl wir schon von lebenslangem Lernen sprechen, hat sich eigentlich recht wenig in diese Richtung entwickelt. Die autodidaktischen Fähigkeiten werden kaum gefördert. Um so schöner, dass es doch noch einige interessante Angebote gibt, die das Lernen zuhause ermöglichen.

Vorlesung Digitale Medien von Prof harald Sack
Die Vorlesung ist sehr gut zum Einstieg in das Thema digitale Medien, aber eher für Techniker geeignet. Der Screencast wird im topaktuellen RealMedia-Format angeboten.

Prof. Eduard Heindls Vorlesungen zum Online-Marketing
Eine eher allgemein gehaltene Einführung in Suchmaschinenoptimierung, Web Analytics und vieles mehr als mp3 zum Download. Die Sound-Qualität lässt zu wünscen übrig.

Weitere Vorlesungen von Prof. Heindl
Heindl hat weitere Vorlesungen online gestellt. Themen unter anderem Mathematik, die Rolle von Innovationen und Objektorientiertes Programmieren in Java. Die Vorlesungen liegen in mp3 vor, sind aber nicht alle vollständig.

Vorlesung Algorithmen von Prof. Dr. Oliver Vornberger
Die Vorlesung gibt es als FLV, MP4 und MP3. Algoritmen werden anhand von Java eingeführt, die Vorlesung ist wirklich lang.

Selbiger hält eine Vorlesung zu Datenbanken
Ebenfalls in FLV, MP4 und mp3.

Websites mit Usern testen

Websites werden immer komplexer. Heute können dank AJAX und flotter Browser ganze Anwendungen im Netz laufen. Zum Beispiel Google Office, die Verwaltungsprogramme für server und teilweise schon Fotobearbeitungen. Handfest wird es dann, wenn ganze Shops im Internet aufgebaut werden und nur dort zu finden sind. Hier hängt das gesamte Geschäft davon ab, dass der Nutzer

  1. die Seite schön findet
  2. sein Produkt findet
  3. problemlos zu einem Abschluss gelangt

Dennoch wirken viele Shops unausgegoren. Ich denke, die Ursache liegt schlicht darin, dass diese Angebote nicht von Nutzern getestet worden sind.
Das ist bei Software bereits seit Jahren üblich. Selbst Microsoft stellt seit geraumer Zeit seine Office-Anwendungen und das Betriebssystem Windows 7 für Tests zur Verfügung. Der Hauptgrund für das grandiose Scheitern von Vista war schlicht, dass die Software von Technikern und Designern entwickelt wurde, aber meilenweit an den Nutzern vorbei ging. Adobe stellt meines Wissens nach keine Betas zum Testen bereit, was erklären mag, warum viele ihrer Programme als kompliziert gelten und alles andere als stabil laufen.
Meines Wissens nach ist es zumindest in Deutschland noch immer unüblich, Websites von Nutzern testen zu lassen. Amerikanische Seiten wirken oftmals – nicht immer – wesentlich durchdachter in ihrer Funktionalität. Das liegt sicher daran, dass hier im Hintergrund wesentlich mehr Geld steht.
Nun mag man einwenden, dass bei großen Projekten die besten Techniker und Webdesigner und speziell auf Usability – sprich Nutzerfreundlichkeit – geschulte Leute sitzen. Das mag sein, trifft aber nicht den Kern der Sache: die genannten drei Gruppen ziehen an verschiedenen Strängen. Die Techniker mögen es eher einfach und würden am liebsten eine Shell hinstellen, der Nutzer soll die Dokumentation lesen und kann dann auf alle Finessen der Site zugreifen. Der Designer will vor allem eine gut aussehende Seite, wo das Verhältnis von Bildern, Texten und Spalten perfekt abgestimmt ist. Der Usability-Experte möchte einen Haufen redundanter Informationen: Texte, funktionale Icons und Standardfarben, die den Nutzer zum Ziel führen. Marketing und PR möchten ihre schicke Corporate Identity und das Corporate Wording unterbringen.
Im Grunde ist nur so zu erklären, warum Läden wie Tauschticket oder >a href=“www.booklooker.de“>Booklookernicht besonders attraktiv sind. Bei Tauschticket kann man nicht einfach nach Produkten suchen, sondern muss eine Kategorie auswählen und sich für eines der Suchfelder entscheiden. Andere Läden hätten hier eine einfache Filterfunktion für die Suchfunktion eingesetzt.
Der Marktriese Amazon macht ebenfalls Unsinn: Er blendet unterhalb der echten Suchergebnisse weitere Ergebnisse ein, die nichts mit der eigentlichen Suche zu tun haben. Wenn es also 50 Treffer zum Suchbegriff „Matlock“ gibt, aber nur eine DVD tatsächlich Matlock enthält, dann wurde der Kunde in seiner Erwartung getäuscht. Dagegen wäre ansonsten nichts einzuwenden, wenn diese verwandten Ergebnisse von den eigentlichen Suchresultaten abgehoben werden.
Wer bei EBay einen Artikel einstellen möchte, muss ein ellenlanges Formular ausfüllen. Für manche mag das besser sein, andere hätten lieber ein Formular, welches die verschiedenen Teile des Formulars wie Artikelbeschreibung, Zahlungsmodalitäten und so weiter auf mehere Seiten aufteilt. Für EBay wäre es ein leichtes, optionale Formulare anzubieten, aber der Marktführer tut das nicht.
Der Blinde stößt auf Dutzende handwerklicher Fehler. Bei einer Site wurden Formularfelder falsch oder gar nicht ausgezeichnet. Bei einer anderen Seite lassen sich Funktionen der Site nicht per Tastatur aufrufen. Wieder andere Seiten sind vollkommen falsch strukturiert. Das wirft nicht gerade ein gutes Licht auf die Webdesigner. Da man die beauftragte Agentur im seltensten Falle kennt, trifft es letzten Endes die Firma, die hier schlampig gearbeitet hat.
Deswegen sollten neutrale Benutzer möglichst frühzeitig in die Entwicklung einbezogen werden. Mit einem Gewinnspiel oder anderen Goodies kann man den Anreiz erhöhen, ein differenziertes Feedback zu geben.

Weiterlesen

Hilfsmittel für Sehbehinderte im Eigenbau

Die meisten Nicht-Behinderten kriegen selten mit, wie teuer Hilfsmittel wie Hörgeräte, Vorlesesoftware und andere unentbehrliche Technik sein kann. Das Kartell der Brillenhersteller hätte ein heilsamer Schock sein können, wird aber wirkungslos verpuffen.

Für die Preise der Hilfsmittel sind die drei Gruppen allesamt mitverantwortlich: Die Hersteller setzen ihre Preise hoch, die Kostenträger bezahlen diese Preise und die Empfänger kümmern sich nicht weiter darum.

Ein Lamento anzustimmen wird unsere Probleme aber nicht lösen. Stattdessen ist Erfindergeist und Innovationsmut gefragt. Zumindest Blinde und Sehbehinderte können sich ihre Hilfsmittel teilweise selbst zusammenschrauben.

Ein Monokular ist ein kleines Fernglas, mit dem Sehbehinderte weit entfernte Objekte lesen können. Da sind zum Beispiel die Anzeigen am Bahnhof, die Nummern von Bussen oder die Namen von Haltestellen. Die Dinger sind gar nicht billig und physikalisch in der Vergrößerung beschränkt. Jede Digitalkamera mit TFT erreicht eine bessere Vergrößerung. Die Screens und Zoomfähigkeiten selbst von Handys sind recht ordentlich, entsprechendes kann man im Laden ausprobieren. Zu achten wäre noch auf die Akkulaufzeit.

Ein Bildschirm-Lesegerät besteht aus einem Bildschirm und einer Kamera. Die Videokamera für ein Lesegerät sollte ohne Zeitverzögerung arbeiten und einen guten optischen Zoom haben. Außerdem benötigt man eine Lichtquelle, wofür sich eine Tischlampe einsetzen ließe. Mit beidem sollte man reichlich experimentieren, in diesem Falle dürfte das ganze Paket bestehend aus Bildschirm – den hat man meistens eh schon – einer GUTEN Kamera und ein starken Tischlampe immer noch leistungsfähiger und mehrseitig einsetzbarer sein als ein Bildschirmlesegerät.

Im Computer-Bereich gibt es mittlerweile reichlich Alternativen zu kommerziellen Screenreadern. NVDA für Windows, diverse Systeme für Linux und Apples voiceover für Macs. Handys kommen mit VoiceOver oder Screenreadern für Android. Kleine Netbooks lassen sich ebenfalls problemlos mit einer Linuxvariante oder NVDA ausstatten. Leider gibt es noch keinen Ersatz für Braillezeilen. Wer noch mehr Anregungen hat, wir freuen uns immer auf Hinweise.

Keep it simple – Verständlichkeit und Barrierefreiheit

Eine Faktor, der bei der Barrierefreiheit praktisch immer vernachlässigt wird ist die Verständlichkeit. Um Verständlichkeit für eine möglichst große Gruppe von Menschen zu erreichen, ist durchaus auch der Einsatz von Bildern sinnvoll. Bilder illustrieren eine Aussage und können, wenn sie sorgfältig ausgewählt wurden, den Beitrag gut ergänzen. Natürlich spielen Bilder auch in der Navigation einer Website eine große Rolle: Pfeile, stilisierte Drucker oder Briefe werden sehr viel schneller aufgenommen als die Zeichenketten „zurück“, „Drucken“ oder „Versenden“.
Daneben zählen natürlich auch die Klassiker des guten Schreibens: Das Erklären von Fremdworten, das Vermeiden von Fachjargon, der Verzicht auf literarische Ausschmückungen, auf komplexe Satzkonstrukte und auf überflüssigen Ballast. Jeder Beitrag muss stets die W-Fragen „Was“, „Wer“, „Wie“, „Warum“ beantworten. Oder anders: der Artikel muss zeigen, was war, was ist und was sein sollte.
Zu einem guten Beitrag gehört eine saubere Gliederung, eine optische Aufteilung mit Absätzen und Zwischenüberschriften und bei entsprechender Länge auch eine Zusammenfassung.
Wer soll damit erreicht werden? Im Grunde jeder, Akademiker vergessen gerne, daß die Mehrheit der Bevölkerung nicht studiert hat und dies auch nicht deshalb tun wird, um einen Text verstehen zu können.
Um es kurz zu machen: öffentliche Behörden schneiden hier am schlechtesten ab. Doch auch andere Seitenbetreiber tun sich schwer damit, sobald man etwa auf die Allgemeinen Geschäftsbedingungen stößt. Dabei sind es gerade die AGB, die jeder lesen und verstehen sollte.
Es ist eher so, daß die bekannten Boulevard-Zeitungen hier am besten abschneiden. Der Erfolg dieser Zeitungen basiert darauf, daß sie die Dinge in einer kurzen Überschrift auf den Punkt bringen können – was immer man von den Zeitungen ansonsten halten mag.
Auch das World Wide Web Consortium hat hier keinen Vorbildcharakter. Die Veröffentlichungen des W3C sind im Techniker-Englisch abgefasste Spezifikationen, die nur für Erfahrene zugänglich sind.
Abschließend muß man feststellen, daß es mehr und nicht weniger Arbeit ist, einen Text allgemeinverständlich zu machen. Es sieht aber nicht so aus, als ob die öffentlichen Einrichtungendie Absicht haben, ihre Webauftritte darauf hin zu überprüfen.
Im Gegenteil, in aller Welt, ob in Deutschland, in Indien oder in England, überall ist die Bürokratie verliebt in ihren Fachjargon: eine Mischung aus Bürokraten-Sprech, Juristen-Jargon und neuerdings auch halbübersetzten angloamerikanischen Modeworten.
Wie man es anders macht, zeigt die englischsprachige Wikipedia, die viele Artikel in simplified English anbietet.

Drupal – das Allround-CMS ohne Chance

Grupal ist im Prinzip eine feine Sache. Ein Allround-CMS, das im Gegensatz zu anderen Systemen sowohl schlank als auch flexibel ist.
Drupal hat sich auf breiter Fläche nie durchgesetzt und wird das meiner Ansicht nach auch auf absehbare Zeit nicht tun. Man kann ein aufgebohrtes WordPress problemlos als kleines CMS benutzen. Man kann aber auch nur Blogs damit führen.
Mit Drupal kann man von Haus aus eine simple Website bauen, mehr geht nicht. Sprechende URLs, Meta Tags, WYSIWYG-Editor, was anders wo Standard ist, muss in Drupal über Module eingebunden werden. Dabei werden die Module in einem anderen Rhythmus aktualisiert als das CMS selbst. Drupal ist ein schlankes System und damit auch sehr sicher. Das gilt aber nicht unbedingt für die Module, ohne die man keine größeren Projekte aufziehen kann. Spannend wird es dann, wenn mehrere Module aktiviert werden müssen, damit das eigentliche Modul funktioniert, welches man benutzen möchte.

Die deutsche Community mag unheimlich nett sein, sie ist aber auch vergleichsweise winzig. Es gibt einen einzigen Podcast mit vier Ausgaben, der offenbar schon einige Jahre alt ist. Die alten Hasen in der Webentwicklung warnen gerne vor TYPO3, die Einstiegshürden seien zu hoch. Was nicht heisst, dass sie bei Drupal niedrig wären. Wer sich in der Logik des Systems zurecht findet, ist den Rest der Zeit damit beschäftigt, passende Module für sein Produkt zu suchen.
Für Webentwickler und Designer mag es sich durchaus lohnen, sich in Drupal einzuarbeiten. Der Otto-Normal–Website-Betreiber möchte aber nicht mit den Feinheiten des CMS konfrontiert werden, vor allem dann nicht, wenn einige seiner Schritte sich nicht rückgängig machen lassen.

Bei recht vielen Webanwendungen ist die deutschsprachige Community nicht groß genug, um auf alle Fragen auch Antworten zu bekommen. WordPress ist die große Ausnahme. Bei Piwik – einer Webanalyse-Software – sieht es schon sehr schlecht aus. Und Drupal wird ebenfalls nicht so stark promoted. Wer also des Englischen nicht mächtig ist, sollte sich von Drupal lieber fern halten.

Das große Manko von Drupal ist meiner Meinung nach der Mangel an fertigen Distributionen.
Was bei Drupal tatsächlich fehlt, sind fertig geschnürte Pakete, die auf bestimmte Aufgaben zugeschnitten sind. Die benötigten Module müssten bereits im Installationspaket enthalten sein. Im Gegensatz zu TYPO3 hat Drupal allerdings nicht einmal eine installierbare Testumgebung.

Für mich ähnelt Drupal einem neu gebauten Haus, dass ohne Heizung und Stromversorgung daher kommt. Man kann zwar darin wohnen, aber wirklich bequem ist es nicht. Im Winter ist es zu kalt, im Sommer ist es zu warm und für jede Verbesserung, die man vornehmen möchte, muss man ewig nach dem richtigen Werkzeug suchen.
Für Drupal gilt daher: ganz oder gar nicht. Wer des Englischen nicht hinreichend mächtig ist und viel Zeit hat, sich hier einzulesen, eine Testumgebung aufzusetzen und viel auszuprobieren und herum zu spielen, für den ist Drupal nichts.

Zwischen Pflug und Laptop – das Dilemma der Entwicklungspolitik

Die Kernfrage der Entwicklungspolitik ist heute, ob man das Industriezeitalter überhaupt noch erleben kann oder direkt in die Dienstleistungsökonomie einsteigen soll. Im niederschwelligen Industriebereich – billiges Plastik-Spielzeug, Textilien, Einzelteile – dominiert China mit niedrigen Löhnen und guten Maschinen. Doch die hohen Gewinne werden heute in der Hightech gemacht, in der Produktion von Autos, Computern und Maschinen wie Industrierobotern. Das erfordert hohe Qualifikationen oder teure Produktionsstraßen. China ist mittlerweile auch ganz groß in der Produktion von Computern. Der Rest wird von den Industriestaaten erledigt, Deutschland ist etwa führend bei Industrierobotern und Werzeugmaschinen.

Indiens IT-Wirtschaft ist zwar weltberühmt, aber relativ klein, zwei Drittel und mehr der Inder leben von der Landwirtschaft, häufig mit primitivsten Mitteln.

Entscheidend ist heute der Transfer von Wissen und Technologie. Eine der bekannten Initiativen dazu stammt von dem US-Amerikaner Nicolas Negroponte – die berühmte One-Laptop-per-Child-Initiative. Dabei soll jedes Kind einen Laptop für 100  Dollar erhalten. Dieser Laptop soll mit Lernsoftware ausgestattet sein.

Afrika zeigt auch den kreativen Umgang mit Handys auf einem Kontinent, auf dem kaum jemand einen Festnetzanschluß hat, geschweige denn sich die Telefongebühren leisten kann.

Afrika und Asien könnten ironischerweise auch der Freien Software zum Durchbruch verhelfen. Bill Gates hat zwar eine schöne Stiftung zur Krankheitsbekämpfung entwickelt, Windows und Office an arme Leute verschenken will er offensichtlich nicht.

Das große Dilemma der Entwicklungspolitik besteht in der Frage, ob man

– einen vorhandenen Status verbessern
– ein kapitalistisch-industrielles
– oder ein Dienstleistungs- und Informationswirtschaftssystem etablieren soll.

Mahatma Gandhi hatte ersteres vor. Er selbst hatte in einer Art Kommune gelebt, den Stoff seiner Kleidung selbst angefertigt und einfache ungewürzte Speisen genossen. Das gleiche schwebte ihm für ganz Indien vor. Eine Art Agrarstaat, vielleicht mit geringer materieller Unterstützung mit Wasser, Dünger und Infrastruktur durch den Zentralstaat.

Der erste indische Premierminister Nehru und dessen Nachfolger wollten jedoch einen klaren industriellen weg. Mit dem Ergebnis, dass die Inder fast alles, aber auch fast nur nichtexportierbares produzierten. Und auf Hightech mussten sie ganz verzichten. Ein komplexes Lizenzsystem würgte zudem absichtsvoll die Innovationsfähigkeit des Kapitalismus nieder.

Die Importsubstiution war auch im Lateinamerika der 60er und 70er Jahre ein Reinfall – man muss ihnen aber zugute halten, dass sie das nicht wissen konnten. Von der Theorie her wirkt die Importsubstitution nach wie vor plausibel.

Das Social Web – die Technik

Das Social Web ist in aller Munde, aber keiner weiß so recht, was es ist, wie und vor allem, warum es funktioniert. Zumindest das Wie ist einfach zu erklären.

Aus markenrechtlichen Gründen nennen wir hier keine Namen, die ohnehin jeder kennt. Vom Prinzip her, also von der Technik gesehen, funktionieren alle Systeme gleich.

Die Schnittstelle bildet das User-Interface, also eine Webseite, in der Regel mit Formularen. Hier werden Daten eingegeben oder ausgewählt.

Über eine Skriptsprache wie PHP werden diese Daten in einer Datenbank, meistens MySQL, gespeichert. Eine Datenbank ist eine in Tabellen strukturierte Sammlung eingegebener Daten.

Die Daten werden über einen Schlüssel, die ID, eindeutig gekennzeichnet. Das sorgt dafür, dass z. B. Kundendaten und Bestelldaten zwar in einer Datenbank, nicht aber in der selben Tabelle stehen müssen, aber dennoch über die ID, etwa eine Kundennummer, eindeutig zugeordnet werden können.

Rufe ich dann z. B. das Benutzerprofil von XY auf, liest das Skript  die angeforderten Informationen aus der DB aus. Die DB kann dann auch komplexere Anfragen beantworten, z. b. die Frage, wen kennt XY, wenn kennt XY, den ich auch kenne und wer studiert dort oder das, wo oder was XY studiert?

So ähnlich funktionieren auch Buchempfehlungen. Ist ein Cookie gespeichert, weiß der Buchhändler, welche Titel ich mir angeguckt habe und sowieso, welche Titel ich bestellt habe.

Die Titel sind vermutlich über Schlagwörter ebenfalls in einer Datenbank gespeichert. Je nach Komplexität des Systems kann der Buchhändler bzw. seine Software Bücher empfehlen, die vom gleichen Autor stammen, das gleiche Schlagwort enthalten, einen ähnlichen Titel und sogar Titel, die preislich bei dem liegen, was ich mir vorher irgendwann angesehen oder gekauft habe.

Das ist das ganze süße Geheimnis des Social Web, eine Skriptsprache und eine DB. Dass Ganze zu programmieren und mit hoher Performance auszustatten, ist natürlich dennoch eine Kunst bzw. ein hartes Brot.
Die Technik für dynamische Seiten ist nicht besonders neu. Neu ist die Leistungsfähigkeit der Server, der Umstand, dass viele Menschen über einen günstigen Internetzugang verfügen und bereit sind, viele, viele Stunden im netz zu verbringen.

SEO IV – schwerer wirds immer – technische Aspekte

Laden Sie alle Beiträge zur Suchmaschinenoptimierung als PDF herunter

Der Titel „SEO leicht gemacht“, den ich bisher verwendet habe, war irreführend. SEO ist zumindest zeitaufwendig und ein Prozess, der genau genommen nie ganz abgeschlossen ist.

Die technische Ebene ist dabei die wahrscheinlich komplexeste Ebene. Hier kommt man ohne HTML-Kenntnisse nicht weit.

Die Bots und Crawler der Suchmaschinen können zwar nicht denken, sie sind aber keine totalen Authisten. Deswegen kann man ihnen auch so leicht nichts vormachen.

Sie können zum Beispiel erkennen, ob eine Seite sauber geschrieben ist. Viele der älteren WYSIWYG-Editoren wie Frontpage 2000, aber auch NVU X.X produzieren schlechten Code. Das hat sich wohl gebessert, auch beim Dreamweaver, ein weiteres Manko des WYSIWYG wird sich wohl nie beheben lassen – die Produktion von redundantem und kompliziertem  Code.

Das mag auch daran liegen, dass Stylesheets auf dieser Ebene eher schwierig zu implementieren sind.

Clean the code

Mit sauberem und schlankem HTML-Code kann man das Herz jedes Bots gewinnen. Eine vom WYSIWYG produzierte Seite ist trotz Optimierung doppelt oder dreimal so groß wie eine Handgeschriebene. Der Grund ist ganz einfach: Obwohl z. B. alle Absätze gleich formatiert sind, schreibt der optische Editor in jeden Absatz Schriftart, Schriftyp, Schriftgröße und weitere Informationen rein. Er weiß nicht, dass wir alle Absätze gleich formatieren wollen, weil wir das nicht vroher festgelegt haben.
Ein weiterer Grund sind Layouttabellen, die aus vielerlei Gründen von Webdesignern nach wie vor verwendet werden. Der Vorteil von Tabellen liegt tatsächlich darin, dass sich Elemente recht genau platzieren lassen und dass die Seiten auch dann strukturiert sind, wenn man sie als HTML abspeichert und offline anguckt. Stylesheets werden normalerweise nicht abgespeichert, wodurch natürlich alles verloren geht, was darin festgelegt wurde.
Aber: Layouttabellen vervielfachen den Quellcode.

Pflegeleichter Quellcode

Korrigieren lässt sich das Ganze nur auf Quelltextebene, den Quelltext muss man aber lesen können. Das beste ist wohl, parallel auf beiden Ebenen zu arbeiten, wem phase5, Notepad++ oder HTML-Studio zu spartanisch erscheint.

Banalitäten wie korrekte Dokumentendeklaration, Meta-Description, keine toten Links, Sitemaps, keine Links in JavaScript-Code, Titel für Images, Validierung des Quelltextes und des Style Sheets sollten eigentlich nicht mehr erwähnt werden. Viele Webdesigner vertrauen allerdings eher auf ihre Design- als auf technische Fähigkeiten.

Das alles ist aus einem simplen Grund wichtig: der Bot kann durchaus erkenen, ob eine Seite valides HTML ist, ob Links tot sind oder ob man sich Mühe gegeben hat, sauberen Code zu erstellen. Für den Bot ist es irrelevant, er weiß dann nur, dass da ein Profi am Werk war und das sie Seite nutzerfreundlich ist.

Meta und mehr

Obwohl Meta-Tags heute an sich für die Suchmaschinenoptimierung nicht mehr die Bedeutung wie einst hatten, müssen auch sie gepflegt werden. Der Webdesigner muss sich bemühen, einen ordentlichen Eindruck auf den Bot zu machen. Google und andere beschweren sich durchaus, wenn doppelte Meta-Descriptions vorhanden sind oder wenn die Keywords nicht mit dem Inhalt des Body übereinstimmen.
Ebenso benötigt man auch dann eine robots.txt, wenn man dem Robot eigentlich nichts mitteilen will, wenn man ihm also erlauben will, alle Verzeichnisse zu durchsuchen.

Weiterführendes

SEO VI – Web 2.0 fürs Optimieren
SEO IV – die Strukturebene

SEO leicht gemacht III – Verlinkungen

SEO für alle II – die Inhaltsebene

SEO leicht gemacht – Suchmaschinenoptimierung für alle I

Technik, die niemandem begeistert

 So eine Robotermesse kann schon beeindruckend sein. Doch welcher Aufwand steckt eigentlich dahinter, so eine Messe zu organisieren? Wer macht die Messen eigentlich?

 

19 junge Schülerinnen und ein Schüler von der 6. bis zur 11. Klasse bekamen die Gelegenheit, diese Fragen von Experten beantworten zu lassen.

Im Rahmen des VDI-Programms „Sachen machen“ verbrachten sie am 13. Juni einen Tag auf dem Messegelände. Die Schüler engagieren sich in ihren Schülerzeitungen.

Das Projekt möchte den Journalismus im Technikbereich fördern.

 

Ein Journalist führte mit Übungen in die Technik ein, journalistische Beiträge aufzubauen, die richtigen Fragen zu stellen und erzählte schließlich, wie man den Weg in den journalistischen Beruf findet. Leider erwähnte er nicht, dass es zwar schwer ist, in den Journalismus reinzukommen, aber noch schwerer, überhaupt Geld zu verdienen. Vielleicht hätte man den Schülern sagen sollen, dass sie, wenn sie schon ein technisches Fach studieren, auch einen technischen Beruf ergreifen sollten. Mehr Zukunft, höheres Gehalt, weniger Ausbeutung.