<< Chatte mit uns

So kommen Livestreams zu Dir auf’s Smartphone

Wie kann ein Event, das in diesem Augenblick passiert, abgefilmt werden, hunderte Kilometer weit übermittelt und schließlich bei uns am Laptop, Smartphone sowie Tablet innerhalb weniger Sekunden abspielbar sein? Das versucht uns heute Hannes, CEO und Streaming-Nerd, näher zu erläutern.

Wie kommt ein Livestream zu mir nach Hause?

Ich habe ein Hobby das mir in manchen schlaflosen Nächten das Träumen erlaubt. Während es bei uns auf der Erdoberfläche dunkel ist, schweben 408km über der Erde meist 6 Astronaut:innen auf der Internationalen Raumstation „ISS“ und erfahren alle 92,68 Minuten einen Sonnenaufgang. 

Während mich die Schwerkraft an mein Bett nagelt, kann ich trotzdem mit Oleg Kononenko, David Saint-Jacques , Anne McClain und anderen den Verlauf des Nils, die Polarlichter an den Polen und eben den nächsten und übernächsten Sonnenaufgang beobachten. Auf YouTube finden nämlich 24/7 an jedem Tag im Jahr mehrere Livestreams statt die uns das ermöglichen:

Wir sind lange nicht mehr an den Ort gekoppelt, an dem das Geschehen stattfindet, um mitten im Geschehen zu sein. Aber wie ist das möglich? Eines vorweg: I´m not a rocket scientist! Wer erfahren will wie Oleg, David und Anne auf die ISS und zurückkommen ist wohl besser aufgehoben bei den Experten der ESA die dazu super Videos veröffentlichen:
Was ich hier versuchen will zu erörtern, ist, wie ein Event, das gerade passiert, abgefilmt, hunderte Kilometer weit übermittelt und bei uns am Laptop, Handy und Tablet abspielbar ist mit einer Verzögerung von nur wenigen Sekunden.
Ground Control to Major Tom, check the Whitebalance and turn the Camera on!

Jeder Livestream beginnt beim Aufnehmen durch eine Kamera. Aktuelle Kameras unterstützen Auflösungen von 4K und mehr. Die Bitrate solcher Bilder ist extrem groß, weshalb die Kabel, die ein solches Signal transportieren, einen äußerst hohen Datenfluss standhalten müssen. Dazu dienen manchmal HDMI Kabel, aber oft werden vor allem bei größeren Distanzen SDI-Kabel verwendet, um bei größeren Videoproduktionen keine Datenverluste zu verursachen.

NASA verwendet für ihre Livestreams einfache IP-Kameras die zum Datentransfer Ethernetkabel verwenden. Das sind Handelsübliche Kameras, die unter anderem auch von uns bei Morawa Digital zur Verfolgung von Eishockeyspielen und anderen Teamsportarten verwendet werden. Der große Vorteil von IP-Kameras ist, dass man das Videomaterial von einem Medienserver – der Kamera – „abholt“ anstatt sie aktiv von der Kamera gesendet zu bekommen. Das bedeutet die Kamera ist immer aktiv, sendet das Videomaterial aber nur dann wenn der Empfänger es braucht. Das Gegenbeispiel wäre eine Handykamera die man als Sender erst aktivieren muss damit ein entfernter Empfänger von ihr Videomaterial bekommt.

T minus 5 seconds – Main engine start

Bevor wir mit unserem Livevideo in Richtung Erde abheben, muss das eingefangene Videomaterial als nächstes so umgewandelt und übersetzt werden, dass es effizient und mit wenig Datenaufwand in die Weiten des Internets entlassen werden kann – kurz gesagt, es muss encodiert werden. Dabei werden die Videos oft von Gigabytes auf Megabytes an Daten herunterreduziert, um diesen Transfer zu ermöglichen. Dafür wird ein Algorithmenpaar verwendet, das sich Codec nennt: Es besteht aus einem Kodierer und einem Dekodierer. Im Grunde schrumpft der Kodierer des erhaltene Videomaterial auf einen Bruchteil des Originalmaterials, um später vom Dekodierer am Endgerät wieder entschlüsselt zu werden. Die meisten Streaminglösungen verwenden hier den Standard H.264 als Videocodec und AAC als Audiocodec. 

“The last ever dolphin message was misinterpreted as a surprisingly sophisticated attempt to do a double-backwards-somersault through a hoop whilst whistling the 'Star Spangled Banner', but in fact the message was this: So long and thanks for all the fish.”
Unser Video ist fertig im richtigen Format encodiert und eigentlich hindert uns nichts mehr daran, loszulegen in Richtung TV-Screen. Keine Sorge, wir sind fast da. Bevor wir loslegen muss das encodierte Video aber noch richtig verpackt werden. Dafür werden sogenannte Containerformate verwendet. Dabei ist der Unterschied zwischen Kompression bzw. Encoding und dem Verpacken in den richtigen Container sehr subtil, aber wichtig. Während wir beim Encoding alles getan haben, um das Videosignal so klein wie möglich zu machen, müssen wir die encodierten Daten noch sortieren und mit Daten versehen, die dem Empfänger des Materials verraten, wie er alles wieder richtig auspacken und sich die Daten somit richtig ansehen kann. In diesem Paket sind meist Audio und Videocodecs enthalten, aber auch Untertitel, alternative Audiospuren und weitere Metadaten werden in dieses Paket gepackt. Die am meist verwendeten Containerformate sind dabei .mp4, .mov, .ts und .wmv.
Lift off!

Zum Transfer unseres encodierten und verpackten Videomaterials verwenden wir verschiedene Streamingprotokolle, um die Pakete von der ISS in irdische Bahnen zu leiten. Protokolle sind wie Regelwerke, die definieren, wie ein Packet über das Internet transportiert wird. Das meistverwendete Protokoll im Internet ist wohl das Hypertext Transfer Protocol (HTTP), welches Dokumente und Webpages behandelt. Auch im Bereich Streaming werden http basierte Protokolle verwendet. Das wohl am meisten verwendete Protokoll heißt HLS, welches sich gut eignet, um viele Endnutzer:innen zu erreichen. Der Nachteil von HLS ist allerdings, dass es ca. 30 Sekunden Latenzzeit aufweist. Neben http-basierten Protokollen werden auch für Video optimierte Protokolle verwendet, um die Latenzzeit zu verkürzen, wie zum Beispiel das „Real-Time Messaging Protocol“ oder kurz, RTMP. Der Nachteil dieses Protokolls ist, dass es nicht dafür gemacht ist, um von vielen Endnutzern:innen gleichzeitig betrachtet zu werden.

Die meisten Streaming Workflows verwenden eine Mischung aus allen verschiedenen Protokollen und somit ist vom Aufnehmen des Videos bis zum Ausspielen auf den Endgeräten niemand beschränkt, sich lediglich auf ein Protokoll zu reduzieren. Wir bei Morawa Digital verwenden, wie die meisten Fernsehsender, das RTMP-Protokoll, um das Videomaterial vom Videoencoder zu unseren Servern zu bekommen. Dort transcodieren wir die Livestreams dann in das http basierte HLS-Format, damit wir den Nutzer:innen eine möglichst barrierefreie Ausspielung garantieren können.

Der Weg des Livestreams: Eine Grafik, die den Streamingprozess vereinfacht darstellt
Touchdown – Expedition Livestream returns home

Unser Livestream kommt also über das RTMP-Protokoll sicher und geborgen auf unserer ausgewählten Landestelle – einem Server – an und kann hier für die Nutzer:innen weiterverarbeitet werden. Dafür „Transcodieren“ wir das Videomaterial für die Endnutzer:innen. Transcodierung ist ein komplexer Prozess der uns im Grunde erlaubt, den Livestream für fast alle Devices aufzubereiten. Das Transcodieren besteht, einfach formuliert, aus zwei Teilen: dem Transmuxing und dem Transcoding.

Beim Transmuxing wird das encodierte Audio- und Videomaterial in ein anderes Containerformat gebracht – dies ermöglicht es uns, die Pakete über verschiedene Streamingprotokolle zu senden, ohne das originale Material anzugreifen und wieder zu encodieren.

Beim Transcoding nehmen wir das encodierte Videomaterial und decoden es, um es dann in verschiedenen Formaten für die Nutzer:innen anzubieten. Meist bedeutet das, dass wir das Material z.B. von 1080p oder Full-HD herunterrendern auf 720p, 480p und 360p. Wir machen das deshalb, weil unsere Endnutzer:innen nicht immer die allerschnellste Internetverbindung haben und wir so garantieren können, dass der Livestream trotz schlechter Verbindung am Device ankommt.

Das transkodierte Material ermöglicht es uns, den Nutzer:innen ein sogenanntes Adaptive Bitrate Streaming (kurz ABR) anzubieten. ABR erlaubt es uns, mit dem Player der Nutzer:innen zu ermitteln, wie schnell die Internetverbindung ist und immer den besten Stream für den Internetspeed anzubieten. Die Nutzer:innen müssen also nicht selbst auswählen welchen Stream sie ansehen sondern das Transcodierte Material erlaubt es dem Player automatisiert, das richtige Material auszuwählen.

Though I’m past one hundred thousand miles

I’m feeling very still

And I think my spaceship knows which way to go

Bald ist unser Livematerial von der ISS auf unserem Device. Anders als zwischen der ISS und unserem dezidierten Server der das Material aufnimmt, wissen wir nicht genau wo sich unsere Nutzer:innen befinden. Ein Stream von unserem Server zu Nutzer:innen in Amerika würde sehr weite Strecken bedeuten, was das Livestream-Erlebnis für diese Nutzer:innen einschränken würde. Konkret verursacht eine größere Distanz Latenz und Bufferzeit. Um dies auszugleichen bedienen wir uns deshalb eines sogenannten Content Delivery Networks (kurz CDN). Ein CDN ist ein globales Netzwerk an Servern auf denen wir das Transcodierte Material verteilen. Die Nutzer:innen bekommen den Stream dann vom Server der die kleinste Distanz zum Enddevice hat.

Final Destination

Und damit ist unser Videomaterial nach hunderten Kilometern am Device der Nutzer:innen angekommen. Das Enddevice verwendet einen Player der das Transcodierte Material über unser CDN bezieht und schließlich decodiert und abspielt. Eigentlich klingt das einfach aber unsere Nutzer:innen haben die verschiedensten Sehgewohnheiten. Vom Heimkino über Handys mit LTE oder 5G bis hin zu Laptops mit Wifi-Verbindung will der Stream stets in bestmöglicher Qualität abgespielt werden. Unsere transkodierten Streams und unser CDN ermöglichen das und unser Player von Bitmovin bietet das optimale Erlebnis für jedes Endgerät.

Wir haben es geschafft. Wir sind gerade vom Weltall in mein Schlafzimmer gereist. Auch wenn all diese Prozesse aufwendig und komplex sind, schaffen wir die ganze Reise in unter 30 Sekunden. Zum Zeitpunkt des Schreibens ist die ISS gerade über West-Australien. Mal schauen ob ich es noch bis Guatemala schaffe.

Life’s a dream. On Livestream.

Artikel teilen!
Facebook
LinkedIn
Twitter
XING
E-Mail
Download