Kategorien
Elektronik Gesellschaft Hard- & Software Tech Story

Warum Teletext auch 2011 nicht totzukriegen ist…

ARDText (Quelle: Wikipedia)

Hab ich eigentlich schon mal erwähnt, wie absurd die schiere Existenz von Teletext heutzutage ist?

Ursprünglich als Erweiterung des Fernsehsignals um Zusatzinformationen gedacht und in „sowieso nicht genutzten“ Stellen des Videosignals übertragen (nämlich in der vertikalen Austastlücke, auch VBI genannt), gibt es heute in der gesamten Signalkette zwischen der Person, die den Teletext redaktionell und technisch erstellt und derjenigen, die sie zu Hause am Fernseher konsumiert, praktisch keine Stelle mehr, an der er wirklich in der vertikalen Austastlücke irgendeines Videosignals (und somit quasi „nebenher“, ohne zusätzlichen Aufwand) transportiert würde!

Ja! (Keine Angst, es folgt jetzt kein grundsätzliches Plädoyer gegen Teletext oder so…)

In den Sendeanstalten ist es seit der Umstellung auf HDTV und damit der flächendeckenden Verwendung sogenannter HD-SDI-Signale im Funkhaus gar nicht mehr (standardkonform) möglich, Teletextsignale oder überhaupt „Datenzeilen“ im klassischen Sinne in das Videosignal zu insertieren, schlicht weil es dafür keinen Standard gibt. Nicht, dass es nicht möglich wäre („Bits übrig“ sind massig im HD-SDI-Signal und für alle möglichen Arten von Timecode, Ton, Beschreibung des Bildformates etc. gibt’s auch Standards, wo im Signal man die nun unterzubringen habe – nur für klassische SD-VBI-Daten noch nicht). Also wird in den Sendern der Teletext per Netzwerk (jawohl!) übertragen, oder, noch schlimmer: alleine für diesen Zweck existiert ganz einfach noch eine analoge SD-Videostrippe die „nebenher“ läuft und nur die Zeilen der Austastlücke quasi „zum Sendemast“ transportiert. Da gehts dann nämlich erst richtig los:

Auf dem digitalen Übertragungsweg (DVB-S/S2, DVB-T/T2, DVB-C/C2) gibt es nämlich schon lange vor HDTV, seit mindestens 10 Jahren, keine vertikale Austastlücke mehr. Stattdessen müssen die Daten, die dort zu analogen Zeiten übertragen worden wären, umständlich in digitale Datenpakete „umverpackt“ und als extra Datenstrom mit eigener „PID“ (Program ID) gesendet werden.

Und schlussendlich gibt es, seit sich HDMI als Verbindung zwischen Receiver und Fernseher gegenüber SCART durchgesetzt hat, auch gar keine Möglichkeit mehr, die Teletextdaten an den Fernseher zu übertragen, schlicht weil es in HDMI ebenfalls keine „Austastlücke“ mehr gibt!

Sprich: Der Receiver selbst muss den Teletext dekodieren und quasi „als Bild“ anzeigen, was dann auf dem Fernseher sichtbar wird.

An der ganzen Kette ist also praktisch nichts mehr so wie früher, es ist ein wildes Hin- und Her-Ge-„wrappe“ von Datenströmen, um immer der jeweils nächsten „Schicht“ die „alten Verhältnisse“ vorgaukeln zu können (JA, klar: es ist möglich – und viele Receiver machen das auch – , aus dem ganzen Teletext-Strom wiederum – ja, jetzt wird’s traurig – analoge Daten-Videozeilen zu generieren, die dann am SCART-Ausgang wieder in die Austastlücke eingetastet werden). Damit Omas Röhrenfernseher mit Teletextdekoder alles so vorfindet, wie vor 30 Jahren…). OK, ganz so dumm ist die Sache mit der Kompatibilität ja auch gar nicht – wird ja auch anderswo gemacht, schließlich ist so ein Videosignal auch heute noch zu Schwarz-Weiß-Fernsehern kompatibel

Auf der anderen Seite hatten es Nachfolgeangebote wie MHP, DigiText, intercast, Zap2Web und wie sie alle hießen, nie eine Chance sich durchzusetzen. Und das, obwohl sie grafisch und technisch viel ansprechender sind, als der Teletext, den damals die BBC im Jahre 1976 erfunden hat und der heute ja im Prinzip noch genau so aussieht.

Ich frage mich: Warum? Auch so, wie es jetzt ist, ist eigentlich nichts mehr „wie es war“ und über all die Jahre wurde mannigfaltig neuimplementiert (z.B. Routinen, um aus analogen Teletextzeilen die Daten für die DVB-PID zu machen; Routinen, um das ganze wieder aus einem DVB-Multiplex rauszuextrahieren, zu dekodieren und als Bild zu „zeichnen“, damit man es am ultramodernen Flachbildfernseher über HDMI auch ansehen kann).

Keine Angst, das hier soll – immer noch – kein Plädoyer gegen den guten (?) alten (!) Teletext sein, er hat sicher seine Berechtigung, zumindest gehabt. Dennoch: wir haben heute überall und immer Internetzugang. Wäre es nicht sinnvoller, auf das ganze Teletext-Geraffel ein für alle mal zu verzichten, spätestens jetzt, wo fast alle neuen Fernseher sowieso einen LAN-Anschluss haben?

Oder, wenn man denn unbedingt mit dem Fernsehsignal Zusatzdaten übertragen will: Doch mal umzustellen auf was HTML-basiertes an Stelle des antiquierten 40-Zeichen-24-Zeilen-Bildschirmtext-Standards (CEPT)? Wenn ja doch – ich wiederhole mich wieder – sowieso an keiner Stelle der Signalkette mehr der Teletext so übertragen wird wie früher, also im Videosignal „inhärent“ und ohne dabei Aufwand zu verursachen?

Stattdessen dieser Tage extra LAN-Infrastrukturen in den Sendern geschaffen werden müssen, nur um die paar Bits/s zum Sendemast transportieren zu können…

Es kostet den Gebührenzahler eigentlich „unnötig“ Geld, wenn die Anstalten – nur für diesen Service! – beim HD-Umstieg ganzer Sendeabwicklungen allerlei technische Klimmzüge machen müssen, nur um auch im Jahre 2011 noch Klötzchengrafik in die Wohnzimmer bringen zu können! (Ich mag sie trotzdem, die alte Klötzchengrafik, ja…)

Wie auch immer, ich schätze wohl, dass jegliche Elaboration gegen Teletext (was das hier wirklich nicht sein soll!) bei eingefleischten Teletext-Fans ohnehin auf Granit stoßen wird: Die würden auch wenn nur für Teletext eine DSL-Leitung zusätzlich zum HD-Sat-Receiver ins Haus gelegt werden müsste, nicht drauf verzichten wollen. Und dann den Web-Teletext auf www.tagesschau.de oder www.zdf.de aufrufen…

Daher: keine Sorge, den Teletext wirds wohl (zum Glück oder leider?) auch in 10 Jahren noch geben. Mindestens.

[Update: Für alle, die auch die Bits & Bytes „hinter“ Teletext verstehen möchten, habe ich ein paar Details zu den technischen Hintergründen von Teletext zusammengetragen, und zwar im Artikel „Teletext wirklich verstehen“, der ab sofort im Bereich „Texte“ zu finden ist.]

Kategorien
Gesellschaft Hard- & Software Medien

Virtualisierung bei „heute“ von morgen

Wenn ich mir das so ansehe, was da für das neue virtuelle Studio des ZDF geplant ist, werde ich etwas nachdenklich. Aus vielerlei Gründen. Aber – vielleicht der Reihe nach…

Worum geht es?

Das ZDF hat in den vergangenen zwei Jahren ein ca. 30 Millionen EUR teures, virtuelles Nachrichtenstudio auf den Lerchenberg gestellt. Ich frage mich angesichts dieser doch immensen Summe, ob so etwas wirklich nötig ist (ohne hier eine GEZ-Diskussion anzetteln zu wollen). Ich möchte vielmehr aus ganz anderen, teils persönlichen, teils gesellschaftlichen Gründen auf die Sache blicken.

Was war denn so falsch am alten Studio? Ich fand, das 2001 mit dem „neuen“ ZDF-Logo eingeführte heute-(Studio)design mit dem blau-orangen Hintergrund hat etwas Seriöses und dennoch Frisches und Modernes. Dabei vermitteln die Holzpaneelen im Hintergrund irgendwie sowas wie einen „ruhenden Pol“. Nun, das ist meine persönliche Meinung und natürlich Geschmackssache, aber mir hat die alte Deko und überhaupt die alte N (das alte Studio) sehr gut gefallen.

Grüne Hölle

Ein „Tapetenwechsel“ wäre aus meiner Sicht nicht nötig, aber er kann ja manchmal auch nicht schaden. Ein Redesign – warum nicht, dachte ich zunächst, bevor die Pläne für das virtuelle Studio standen (ja, man dachte zunächst tatsächlich über ein einfach nur größeres, aber „normales“ Studio nach). Als dann stattdessen die viel teuere grüne Hölle gebaut wurde, fürchtete ich schon, dass das Design, da virtuell, ganz sicher nicht mehr so seriös wirken kann wie früher. Stattdessen stellt man sich in eine Reihe mit Pro7, SAT.1, N24 und Co. – so meine Befürchtungen.

Das virtuelle Studio – selbst, wenn technisch noch so perfekt realisiert (und das ist es, davon muss man angesichts millionenteurer VizRT-Rechner schon mal ausgehen) – wird nie so aussehen wie das Signal einer guten Kamera; die Moderatoren werden immer „reingestanzt“ / „gekeyt“ aussehen. Hätte man doch lieber das viele Geld in noch bessere Kameras und noch besseres Audioequipment gesteckt (m.M.n. eh wichtiger als das Bild des Studios). Aber gut. So sei es. Aber wenn man sich jetzt mal die Begründungen anschaut, wozu das neue Virtuelle gut sein soll, wird einem übel: Man will mehr „Erklärstücke“ in einem 3-dimensionalen „Erklärraum“ bringen.

Der allgegenwärtige Erklär-Overkill

Ja, und das war für mich der Auslöser, diesen Artikel überhaupt anzufangen. Diese Erklärerei. Teil einer gesellschaftlichen Entwicklung, die – so paradox es klingt – das „gemeine Volk“ (den Fernsehzuschauer) weniger bildet denn nach und nach verdummen lässt. Überhaupt begegnen uns heute im Leben immer mehr Hinweise, Schilder, Warnungen, Tipps und Tricks und derlei mehr, die uns doch ja vor den Unbilden des harten Lebens schützen und uns vor aber auch wirklich allem vorwarnen sollen.

Dass ein Kaffeebecher heiß ist, sollte einem der gesunde Menschenverstand sagen und nicht eine Aufschrift auf dem Becher. Wonach ich suchen will, sollte ich mir überlegt haben, bevor das AutoComplete von Google zuschlägt. Dass „Objekte“ im Rückspiegel näher sein können als sie erscheinen, sollte ich in der Fahrschule gelernt haben und muss es nicht in Form eines dämlichen Warnsatzes auf dem Spiegel lesen. Und: Wenn ich etwas in den Nachrichten sehe, das mich interessiert, das ich aber nicht ganz verstehe, dann sollte ich mich hinsetzen und recherchieren (das steht ja jedem (noch) frei), anstatt zu warten, dass Madame Slomka mir in einem auf die Schnelle hingeklatschten (freie Übersetzung von „rapid prototyping“) 3D-Erklärraum die „Wahrheit“ in Form von Hintergrundinfos zu dem Thema erklärt.

Diese Erklärstücke werden sachlich bis zur Unkenntlichkeit verstümmelt sein, da könnt ihr euch ganz, ganz sicher drauf verlassen. Denn wenn die heute und das journal auch nur einen Funken ihrer Aktualität behalten wollen, dann werden sie die Erklärstücke wirklich lieblos machen. Wirklich lieblos. Und ich glaube jeder von euch, der sich in einer Materie X gut auskennt, kennt das unbefriedigende Gefühl, das ein jeder Fernsehbeitrag über Thema X hinterlässt und das mitunter an „Da! Sie desinformieren wieder gezielt die Öffentlichkeit!“ grenzt.

(Spinnerter Gedanke von mir: Fehlt nur noch, dass Markus Lanz die Erklärstücke moderiert. Ihr wisst schon, der, der nach jedem Satz an den TV-Zuschauer in die Kamera nickt, als spräche er mit einem 2-Jährigen).

Nachrichten oder Magazin?

Der nächste Schritt wäre dann die Zusammenlegung von „hallo deutschland“ mit „heute“, dann könnten sie aber auch auf Aktualität verzichten und alles zu einer großen Magazinsendung machen.

So, ich weiß, dass ich jetzt etwas abgeschweift bin, aber genau diese Gedankengänge gehen mir durch den Kopf, wenn ich an das neue Studio denke. Dass ganz nebenbei natürlich Personal eingespart wird (das Wort „Roboter“ sagt alles…), ist dabei nur einer der Punkte… OK, ich komme zum Schluss. Vielleicht noch die aktuellen Fakten: Am 17.07.2009 soll das Studio mit der 19:00-heute auf Sendung gehen, heute lief übrigens der erste Trailer dazu, im offiziellen ZDF-Vorabendprogramm und mit Anklängen der neuen Musik im Hintergrund (zu der ich mich aber jetzt nicht auslasse, sonst wirds sehr lang). „logo“ und das „heute journal“ sollen irgendwann auch aus der neuen N kommen, aber wahrscheinlich nicht mehr dieses Jahr. Ergänzend zur Überschrift möchte ich mit der Frage schließen: Schnörkelloses Vermitteln realer Nachrichten – eine Idee von gestern?

Kategorien
Digitale Freiheit Hard- & Software Netzwelt

Mal wieder: Mr. GNU meldet sich zu Wort

Heute bleibt mir nur Richard Stallman zu wünschen, dass er sich mit den Hörnern seines GNUs in der von ihm benannten JavaScript-Falle so übel verfängt, dass er für einige Zeit der OpenSource-Welt abhanden bleibt, anstatt sie durch abstruse Thesen zu irritieren.

Immer daran denken: 1. Wer glaubt, Freiheit erzwingen zu können, irrt. 2. Immer vernünftig bleiben! Möge stets der gesunde Menschenverstand allein obsiegen. 3. Der einzige Fortschritt, den wir noch erreichen können, ist die Erkenntnis, dass wahrer Fortschritt nur in der Abkehr vom Zwang des ewigen Fortschritts liegen kann! In diesem Sinne eine schöne Zeit,

Fabian

Kategorien
Elektronik Hard- & Software Rezensionen & Reviews

Symphonie in Eee-Dur

Seit einer Woche bin ich jetzt im Besitz eines süßen, kleinen Asus Eee PC 901. Er ist, finde ich, der „schönste“ PC bzw. Laptop, den ich seit langem hatte. Mein alter Hauptrechner, das Arbeitspferd für die tägliche Arbeit, ist von 2000 und hat einiges erlebt (was dank guter Pflege seiner Leistungsbereitschaft natürlich keinen Abbruch tut…). Ihm „verdanke“ ich viel, wenn man das so sagen darf – deswegen konnte ich mich auch bisher nur schwer von ihm trennen. Mein Notebook (Samsung X20, das mir auch rundum gut gefällt) habe ich, trotz der Tatsache, dass es weitaus leiser ist und weniger Strom verbraucht, zu Hause fast nie benutzt.

Um so überraschter bin ich, wenn ich jetzt nach einer Woche mit dem Eee feststelle: Ich hatte meinen guten alten PC seit einer Woche fast überhaupt nicht mehr an!!! Nur ein, zwei mal ganz kurz um etwas zu holen, was ich nur auf seiner Platte gespeichert hatte. Ich hoffe, er ist nicht eifersüchtig…

Der EeePC 901 ist ein wunderbares Gerät, eine sehr schön aufeinander abgestimmte Komposition aus schwarzem Klavierlack und einem matten (!) TFT-Display. Das Gehäuse ist nicht zu klein und nicht zu groß, das Display scharf und extrem hell (wenn man sich nicht auf die vorgegebenen Helligkeitsstufen beschränkt, sondern das Tool EeeCtl verwendet – einfach mal danach suchen!). Mit der Tastatur kommt man nach zwei, drei Tagen super zurecht. Dieser Text ist auf dem Eee getippt (und wer Rechtschreibfehler findet, darf sie behalten). Lediglich die Tatsache, dass die F1-Taste nicht die erste Taste neben Escape ist, sondern dass hier zuerst die Zirkumflex-Taste folgt, stört mich immer noch etwas. Nicht nur, dass ich ständig beim Umbennen statt auf F2 auf F1 haue und damit die Hilfe öffne[n würde, wenn ich den Hilfe- und Supportcenter-Dienst von Windows nicht deaktiviert hätte]. Nein, dadurch, dass das Zirkumflex eben nicht links neben der 1 ist, sondern die 1 direkt die erste Taste in der Zahlenreihe, schreibe ich auch regelmäßig statt „23.10.2008“ halt erst mal „34.20.3008“ oder so… Aber das verzeihe ich dem kleinen gerne, denn er ist vor allem eines: leise. Nein, das ist eigentlich falsch. Denn er ist lautlos. Und das wiegt alles auf. Erst nach stundenlanger Arbeit (und die kann mit einer Akkuladung schon mal 8 Stunden dauern) meldet sich der Lüfter extrem dezent zu Wort. Eine Festplatte hat der EeePC 901 im Gegensatz zum 900H oder 1000H nicht – dafür zwei lautlose, erschütterungsunempfindliche und stromsparende Solid-State-Disks. Insgesamt stehen so 12 GB zur Verfügung (das 20GB-Modell mit Linux statt Windows XP gibt es in Deutschland scheinbar nicht). Womit wir bei der Software wären.

Das vorinstallierte Windows XP Home mit SP3 kann man schlicht vergessen. Mit etwas Arbeit könnte man es entschlacken, ok, wer das gerne will soll es tun. Ich habe jedoch als erstes mal mein gutes altes Windows XP Pro mit SP2 installiert – und zwar von einem externen CD-ROM-Laufwerk. Ein internes hat er natürlich nicht. Und von USB-Platte (einfach bootfähig machen und den I386-Ordner von einer Windows-CD draufkopieren) zu installieren, hat den Nachteil, dass man nur in FAT-Partitionen installieren konnte. Daswollte ich nicht, und da ich einen USB-to-IDE-Adapter sowie auch noch ein altes DVD-ROM-Laufwerk im Schrank hatte, habe ich hiervon gebootet und die Installation lief sauber durch. Danach die Treiber (Chipsatz, ACPI, Grafik, Sound [Achtung: Hier muss bei SP2 erst KB888111 von Microsoft installiert werden!], LAN, WLAN, Bluetooth [Nicht der riesige Widcomm-Stack, sondern Microsofts Treiber und Stack tun es auch]) installiert. Nicht von ASUS direkt, nein, die verhunzen alle ihre Treiber mit riesigem InstallShield-Installer, was völlig unnötig ist. Es reichen ja jeweils die INF- und SYS-Dateien. Neue Versionen der Treiber in dieser abgespeckten Fassung bietet k0k0 hier an: http://downloads.k0k0.de. Auch das BIOS-Update auf Version 1603 (bzw. auf die jeweils aktuellste Version), die man hier findet, war natürlich Pflicht. Leider sind die Tools, die dem ACPI-Treiber beiliegen (für die Auflösungseinstellungen und die Tastenleiste, sowie zum Einstellen des Stromsparmodus) nicht die letzten Versionen. Diese habe ich bei www.asustreiber.de gefunden.

Zu guter Letzt kann ich nur das Tool EeeCtl empfehlen, das ich oben schon erwähnt habe. Es ist eigentlich für den EeePC 70x (4G), beim Anwählen eines Speedmodus auf dem 901 friert der Rechner ein. Die Anwahl der Displayhelligkeiten und Lüfterstufen geht aber problemlos. Eine von mir für den EeePC 901 angepasste Version biete ich hier an. In dieser Version habe ich die Geschwindigkeitsstufen ausgegraut, sodass man nicht versehentlich darauf klicken kann. Außerdem habe ich die Helligkeitsstufen auf deutsch übersetzt und ins Hauptmenü (statt Untermenü) aufgenommen. Die Stufe „Hell“ liegt jetzt etwas über der werksmäßig hellsten Stufe. „Sehr hell“ ist das Maximum, was das Backlight hergibt. Die dunkelste Stufe habe ich durch „Off“ ersetzt, was nützlich ist, wenn man im Hellen arbeitet und z.B. auf einen Download wartet – einen Fortschrittsbalken erkennt man so allemal und das Backlight ist ganz aus. (Im Gegensatz dazu wird beim Druck auf die „X“-Taste links oberhalb der Tastatur das Display komplett ausgeschaltet, auch wenn im Handbuch diese Taste mit „Backlight“ beschrieben ist, das ist falsch. Außerdem regelt das Programm den Lüfter in der Auto-Stellung viel feiner als das BIOS und er ist insgesamt noch seltener an, und wenn dann eher etwas früher und langsamer, als erst bei 50°C, aber dann direkt mit 30% Leistung…) Man kann das aber alles über die INI-Datei anpassen.

Nun, ihr seht, ich bin rundum zufrieden mit dem kleinen Ding, das man wirklich immer mit sich führen kann.

Nachdem alles komplett eingerichtet ist (auch Deskwork läuft auf dem Ding sehr gut!) lehne ich mich entspannt zurück. Und genieße, ungetrübt von Lüfterlärm, die Symphonie Nr. 1 in Eee-Dur… ich meine natürlich E-Dur – von Hans Rott…..