FreeD:Stadionrundflug im virtuellen Hubschrauber

Wie eine neue Technik Zeitlupen-Wiederholungen bei Sportveranstaltungen revolutionieren soll und warum es so viele hochauflösende Kameras braucht.

Von Helmut Martin-Jung

Der Stürmer läuft aufs Tor zu, gleich wird er schießen, oder kommt der Verteidiger noch ran? Da bleibt das Bild plötzlich stehen. Es ist, als habe jemand die Zeit angehalten und man säße in einem Minihubschrauber unmittelbar über dem Spielfeld. Der imaginierte Hubschrauber fliegt um die Szene herum, und es wird klar: Der Abwehrspieler setzte seine Blutgrätsche knapp vorm Strafraum an, und sein Kollege aus der Viererkette war mal wieder viel zu weit weg. Am vergangenen Samstag beim Pokalfinale zwischen Dortmund und Wolfsburg kam die Technik erstmals in Deutschland bei einem Live-Ereignis zum Einsatz, der Bezahlsender Sky zeigte einige der Szenen.

Die FreeD genannte Technik stammt von der israelisch-amerikanischen Firma Replay Technologies. Im Olympiastadion wurden dafür knapp unter dem Dach 32 hochauflösende Kameras installiert. Sie erfassen jeden Winkel des Spielfeldes. Der Datenstrom, den die Kameras liefern, ist gigantisch: Ein Terabyte pro Sekunde. Wollte man diese Menge auf Datenträger abspeichern, wären etwa 250 Standard-DVDs nötig. Pro Sekunde. Das lässt schon ahnen, dass auch eine gewaltige Speicher- und Rechenkapazität vonnöten ist, um sie zu verarbeiten. Ein ganzer Container voller Rechner erledigt das, drei Klimaanlagen kühlen die Luft um die Metallregale mit den surrenden Serverrechnern, die der Chiphersteller Intel für den Testlauf in Berlin gestellt hat.

Die 3-D-Bilder, die der Zuschauer sieht, existieren zunächst gar nicht, sie werden aus den Bildern der verschiedenen Kameras erst errechnet, erläutert Diego Prilusky, der Kreativdirektor von Replay. Zudem können auch virtuelle Linien - etwa um die Frage zu klären: war es Abseits oder nicht? - eingezogen werden. Findet der Regisseur eine Szene interessant, wählen die Techniker die Kameras aus, die dafür nötig sind. Deren Bilder werden dann mit einem Algorithmus so umgerechnet, dass sie dreidimensional wirken. "Vor einigen Jahren wäre das noch gar nicht möglich gewesen", sagt Intel-Manager Dieter Hoffend. "Die Rechenanlage, die man gebraucht hätte, wäre viel zu teuer und zu groß gewesen." Auch jetzt ist die Sache eine Herausforderung: 90 Sekunden dauert es etwa, bis eine Szene berechnet ist. Noch sind auch ab und zu kleine Bildfehler erkennbar, die Qualität reicht auch nicht ans normale TV-Bild heran. "Das ist jetzt die erste Generation", sagt Hoffend, "die nächste wird besser und schneller."

Auch für die normalen TV-Bilder gibt es noch Ideen. Die Techniker denken darüber nach, den Kontrastumfang der Kameras zu steigern, indem mehrere unterschiedlich belichtete Bilder derselben Szene zu einem einzigen zusammengerechnet werden. HDR nennt man das in der Fachsprache, High dynamic range, einige Fotokameras und Smartphones beherrschen das bereits. Das Ziel: Scheint im Stadion die Sonne, sind die Spieler im Schatten derzeit kaum zu erkennen - mit HDR würde sich das ändern.

Zur SZ-Startseite
Jetzt entdecken

Gutscheine: