Das Artillerie-Plugin-hls-Plugin ermöglicht die Unterstützung von HTTP Live Streaming (HLS) in Artillerie. Wenn das Plugin aktiviert ist, analysiert Artillerie die Wiedergabeliste, wählt einen der alternativen Streams aus und lädt ihre Segmente (.ts-Dateien) herunter. Ab iOS 10 können Sie AVFoundation verwenden, um HTTP Live Streaming (HLS)-Assets auf ein iOS-Gerät herunterzuladen. Die folgenden Optionen werden auf dem hls-Attribut unterstützt: Auf WWDC2016 kündigte Apple[9] die Aufnahme von Byte-Range-Adressierung für fragmentierte MP4-Dateien oder fMP4 an, sodass Inhalte in HLS wiedergegeben werden können, ohne dass sie in MPEG-2 Transport Stream multiplex werden müssen. Die Branche betrachtete dies als einen Schritt in Richtung Kompatibilität zwischen HLS und MPEG-DASH. [10] [11] Bonus: Wenn Sie Perls JSON-Modul fehlen (wie ich hatte), führen Sie einfach sudo cpan JSON aus. Zwischen den beiden EXT-X-DATERANGE-Tags, die die Attribute SCTE35-OUT und SCTE35-IN enthalten, kann es eine Sequenz von Mediensegment-URIs geben. Diese Mediensegmente stellen normalerweise Anzeigenprogramme dar, die durch die lokale oder angepasste Anzeige ersetzt werden können. Der Anzeigenersetzung erfordert nicht den Austausch der Mediendateien, nur die URIs in der Wiedergabeliste müssen geändert werden, um auf verschiedene Anzeigenprogramme zu verweisen. Der Anzeigenaustausch kann auf dem Ursprungsserver oder auf dem Medienwiedergabegerät des Clients erfolgen. Wenn nichts passiert, laden Sie GitHub Desktop herunter, und versuchen Sie es erneut. Bemerkenswerte Server-Implementierungen, die HTTP Live Streaming unterstützen, sind: Apple hat auch neue Tools hinzugefügt: “tsrecompressor” erzeugt und kodiert einen kontinuierlichen Stream von Audio und Video mit geringer Latenz. Das Tool “mediastreamsegmenter” ist jetzt in einer Version mit geringer Latenz verfügbar.

Es ist ein HLS-Segmentierer, der einen UDP/MPEG-TS-Stream von tsrecompressor aufnimmt und eine Medien-Playlist generiert, einschließlich der neuen Tags oben. Der Rest dieses Abschnitts beschreibt Apples ALHLS. Es reduziert die Glas-zu-Glas-Verzögerung beim Streamen über HLS, indem die Zeit für den Start von Livestream-Wiedergaben reduziert wird und diese Zeit während eines Live-Streaming-Events beibehalten wird. Es funktioniert durch das Hinzufügen von partiellen Mediensegmentdateien in den Mix, ähnlich wie MPEG-CMAf fMP4. Im Gegensatz zu CMAF unterstützt ALHLS auch partielle MPEG-2 TS-Transportdateien. HTTP/2 ist erforderlich, um die Segmente zusammen mit der Wiedergabeliste zu übertragen, wodurch der Aufwand für das Herstellen wiederholter HTTP/TCP-Verbindungen verringert wird. Artillery Pro bietet eine Lösung für das einfache Ausführen von Tests von einem Cluster von Knoten sowie einer Reihe anderer Team- und Unternehmensfunktionen sowie einer tiefen AWS-Integration. Dieses Perl-Skript ist ein guter Fetcher: github.com/osklil/hls-fetch HTTP Live Streaming (auch bekannt als HLS) ist ein HTTP-basiertes adaptives Streaming-Kommunikationsprotokoll für Bitrate, das von Apple Inc. entwickelt und 2009 veröffentlicht wurde. Die Unterstützung für das Protokoll ist in Media-Playern, Webbrowsern, mobilen Geräten und Streaming-Medienservern weit verbreitet. Eine jährliche Umfrage der Videoindustrie hat immer wieder festgestellt, dass es das beliebteste Streaming-Format ist. [2] Streaming von Videos mit einer großen Anzahl virtueller Benutzer kann schnell die gesamte verfügbare Bandbreite auf einem einzigen Computer ausschöpfen.

Daher sollte die Bandbreitennutzung genau überwacht werden, während Tests ausgeführt werden, um die Anzahl der Knoten, auf denen Artillerie nach Bedarf ausgeführt wird, zu skalieren.