Sie zeigen eine alte Version dieser Seite an. Zeigen Sie die aktuelle Version an.

Unterschiede anzeigen Seitenhistorie anzeigen

« Vorherige Version anzeigen Version 11 Nächste Version anzeigen »

Medientechnologie

  • "Medientechnologie ist ein Gebiet der Ingenieurwissenschaften, das sich mit den Geräten, Signalen, Verfahren und Abläufen im Bereich der elektronischen Medien beschäftigt.

    Es umfasst damit Technologien im Bereich von Audio, Fotografie, Video, Animation, Druck und Internet. Dabei wird die gesamte Verarbeitungskette von der Produktion (Aufnahme oder elektronische Generierung), über die Signalverarbeitung, die Übertragung bis zur Speicherung und Wiedergabe betrachtet.""
    Quelle: wikipedia, abgerufen am 28.07.23 → wikipedia/Medientechnologie


"4K bezeichnet eine Auflösung, die viermal höher als Full HD ist. Eine Full HD-Auflösung beträgt 1080 x 1920 Bildpunkte. 4K bedeutet 2160 x 3840 Bildpunkte. Die Anzahl der Bildpunkte wird also horizontal und vertikal verdoppelt."

Quelle: visutec_glossar - abgerufen am 28.07.2023

"AV ist die Abkürzung für Audio / Video. Das Signalmanagement ist die gesamte Steuerung und Hardware eines System, das für die Verwaltung und reibungslose Funktionsweise von AV-Signalen zuständig ist." 
Quelle: visutec_glossar - abgerufen am 28.07.2023

"Bezeichnet die Gesamtheit aller Audio- und Video-Systeme, sowie Systemkomponenten. Dazu zählt alle Technik, die für die Wiedergabe von Bild und Ton genutzt wird."
Quelle: visutec_glossar - abgerufen am 28.07.2023

"AV over IP steht für „Audio-Visual over Internet Protocol“. Im Wesentlichen ist es die Übertragung von Audio- und Video-Daten über ein Netzwerk wie z.B. ein LAN, WLAN oder das Internet.
Im Gegensatz zu herkömmlichen AV-Umgebungen bezieht sich AV over IP (auch manchmal nur als AV/IP bezeichnet) auf die Verwendung von Standard-Netzwerkgeräten zum Übertragen und Schalten von Video und Audio. Das Konzept von „Video over IP“ existiert schon lange. Es umfasst alles vom internetbasierten Live- oder On-Demand-Video-Streaming bis hin zu professionellen Video-Distributions-Infrastrukturen in Produktions- und Broadcast-Studios. Was in den letzten Jahren im professionellen AV-Bereich diskutiert wird, ist die schrittweise Ablösung traditioneller AV-Infrastrukturen durch IP-basierte Strukturen - daher auch der Begriff AV over IP. Für einige ist die Idee, IP im AV-Bereich der Einrichtung zu verwenden, ziemlich neu, während es für andere schon ein vertrauter Anblick geworden ist.

Unterschied zwischen herkömmlichen AV- undAV-over-IP-Konfigurationen:

An der Basis bleiben alle Elemente/Komponenten in einer AV-Umgebung identisch. Traditionelle AV-Infrastrukturen befassen sich hauptsächlich mit der Erweiterung und dem Austausch von Audio- und Video-Daten. Das Ziel des AV-Systems besteht darin, Nutzern die Möglichkeit zu geben, ihre Video- und Audioquellen auf ihren Monitoren/Displays und auf ihren Beschallungssystemen anzusehen und/oder zu hören. Um dies zu ermöglichen, müssen alle Quellen erfasst, verschoben, geschaltet und angezeigt werden können.

Beispiele traditionellem AV vs. AV over IP
Traditionelle AV Beispiele:

Digitale Video Tx und Rx Komponenten und/oder kabelgebundene digitale Video Matrix-Switcher.
a) HDMI b) DisplayPort c) SDI d) HDBaseT

AV over IP Beispiele:

1. Standard-basierte AV over IP Produkte
a) SMPTE 21110 Spezifikation für unkomprimiertes Video over IP; b) JPEG-2000 leicht komprimiertes Video over IP; c) H.264 hocheffizient komprimiertes Video over IP

2. Proprietäre AV over IP Produkte
Die Pakete zwischen Codierern und Decodierern respektieren das Internetprotokoll und die Ströme können auf Standard-IP-Vermittlungen geschaltet werden, aber das Kodierungsschema (Paketierung von Video) ist proprietär und inkompatibel mit irgendwelchen Vorrichtungen, die standardbasierte Codecs verwenden.

Wie sicher ist AV over IP?

AV over IP kann in vollständig getrennten Netzwerken eingesetzt werden, die niemals mit Datenpaketen aus dem Datennetzwerk oder Kommunikationsnetzwerk einer Organisation koexistieren. Alternativ können bestehende Infrastrukturen der Netzwerkverkabelung und -vermittlung für AV-über-IP-Anwendungen genutzt werden und bereits häufig verwendet werden. AV-über-IP-Implementierungen, unabhängig davon ob es sich um separate oder vorhandene Infrastruktur handelt, können ohne Beeinträchtigung der IT-Netzwerksicherheit durchgeführt werden. In vielen Unternehmen ist die Fähigkeit, Daten, Kommunikation und AV zusammen zu nutzen (auch bekannt als „Konvergenz“), eine treibende Kraft und ein wichtiger Vorteil dafür, wie AV angepasst oder neu bereitgestellt wird."

abgerufen am 28.07.23 bei Was_ist_AV_over_IP.pdf - Text verkürzt

"Ein Videoprojektor (auch Bildwerfer, Digitalprojektor, Daten-Video-Projektor), umgangssprachlich meist Beamer [ˈbiːmɐ] (pseudo-englische Wortprägung, abgeleitet von englisch beam, deutsch „Strahl“), ist ein spezieller Projektor, der stehende und bewegte Bilder aus einem visuellen Ausgabegerät (Fernsehempfänger, Computer, DVD-Spieler, Videorekorder usw.) für ein Publikum in vergrößerter Form an eine Bildwand (auch Projektionswand) projiziert. Die Bandbreite der Geräte reicht von kleinen Präsentationsprojektoren für den mobilen Einsatz bis zu stationären Hochleistungsprojektoren.(...) Videoprojektoren lassen sich grundsätzlich hinsichtlich des verwendeten Projektionsverfahrens unterscheiden. (LCD-Projektor, DLP-Projektor, LED-Projektor, LCoS-Projektor, Laser- Projektor)"

Quelle: wikipedia, abgerufen am 28.07.23 → wikipedia / Videoprojektor

Steht für "Bring Your Own Device" und ist in Hochschulen mittlerweile ein beliebtes Modell. Der Gedanke dahinter ist, dass Dozierende und Studierende ihre eigenen Geräte (Laptop, Tablet, Smartphone) mit an die die Uni bringen. Diese können dann in das bestehende Netzwerk über Lan oder Wlan eingebunden werden. Leider gibt es für eigene Geräte keinen Support von den zentralen Servicestellen der Uni (ZIM, IKM).

"Collaboration bedeutet allgemein erst einmal Zusammenarbeit. Gemeint ist die Vernetzung verschiedener Gruppen über digitale Infrastrukturen, um gemeinsam an Projekten zu arbeiten. Collaboration beinhaltet ausserdem Onlinemeetings, Webkonferenzen (z.B. webex) und der gemeinsame Zugriff auf Cloud basierte Ablagen (z.B. Sciebo). "
Quelle: visutec_glossar - abgerufen am 28.07.2023

"Bezeichnet die Präsentation von Inhalten auf digitalen Wiedergabegeräten. Dabei werden Displays oder Stelen als "elektronische Plakate" eingesetzt deren Inhalte über eine zentrale Steuerung geplant, bearbeitet und ausgespielt werden. Zum Einsatz kommt Digital Signage in Einkaufszentren oder auch an Flughäfen."
Quelle: visutec_glossar - abgerufen am 28.07.2023

An Hochschulen wird Digital Signage oft verwandt, um z.B. über den Türen von Hörsälen die aktuellen Veranstaltungen anzuzeigen.

"Bezeichnet eine Auflösung von 1920 x 1080 Bildpunkten. HD steht dabei für "High Definition". Full HD Auflösung ist mittlerweile bei Projektoren, Displays und anderen Wiedergabegeräten Standard." Quelle: visutec_glossar - abgerufen am 28.07.2023

Durch Monitore, Fernseher, Smartboards, LED - Walls und anderen Displays wird mittlerweile eine deutlich höhere Auflösung erzielt (2K, 4K...), sodaß dieser o.g. Standard in vielen Bereichen abgelöst wird.

"HDBaseT ist ein Verbindungsstandard zur Übertragung hochauflösender Multimediasignale.

Den Grundstein für die HDBaseT-Technologie liefert das 5Play-Konzept. 5Play beinhaltet die:

  1. Übertragung von unkomprimiertem ultra-HD Digital-Video und -Audio (2K/4K/3D),

  2. 100 Mbit/s Ethernet,

  3. USB 2.0,

  4. bis zu 100 W Stromversorgung (PoE) und

  5. Steuersignale

über ein einziges Netzwerkkabel (geschirmtes Kabel Cat.5e, für höhere Übertragungsraten Cat.6 oder besser) bis zu 100 m Länge.[1]

Die neueste Spezifikation des HDBaseT ermöglicht auch die Übertragung von Audio & Video, Ethernet, USB und Steuersignale für noch längere Distanzen über Glasfaser, daher fehlt hier die PoE-Stromversorgung.

An die Verbindung sind beim HDBaseT andere Voraussetzungen als bei den Cat-Standards gegeben. HDBaseT verwendet im Gegensatz zur herkömmlichen Datenkommunikation ein asymmetrisches Verfahren. Die Pakettechnologie ist ebenfalls anders aufgebaut. Die Steckverbindungen müssen möglichst stabil und ohne Wackelkontakt sein. Es ist bei einer Live-Übertragung nicht möglich, fehlerhafte Bits erneut zu senden. Zudem sind feste Kupferkabel (keine Litzen) für die Signalübertragung von großer Bedeutung. Auf dem Markt gibt es spezielle HDBaseT-Kabel (bestimmte Schirmung und Festigkeit). Zudem sollte die fertige Installation mit einem speziellen HDBaseT-Messgerät überprüft werden. (...)

Vorteile von HDBaseT

  • Kostengünstige Kabel/Installation

  • Einfache Verkabelung

  • 5Play: Video, Audio, Ethernet, USB 2.0, Stromversorgung und Steuersignale über ein einziges Kabel

  • Unkomprimierte Signalübertragung (keine Qualitätseinbußen)

  • Extrem niedrige Latenz (jedoch höher als bei SDI)

  • Industriestandard, jedoch nicht im Bereich der professionellen Veranstaltungstechnik und TV

Nachteile von HDBaseT

  • Teure Geräte (Verglichen mit SDI)

  • EDID Aushandlung von Auflösung/Framerate

  • nicht kompatibel mit Broadcast Equipment

  • Kabellänge darf nicht länger als 100 Meter sein

  • hohe Lizenzkosten für Gerätehersteller"

  Quelle: wikipedia, abgerufen am 28.07.23 → wikipedia /HDBaseT


High Definition Multimedia Interface (...) ist eine seit April 2002 entwickelte drahtgebundene Schnittstelle für die digitale Bild- und Ton-Übertragung in der Unterhaltungselektronik. Sie ersetzte existierende analoge Schnittstellen wie SCART, Composite Video, S-Video und Component Video und überträgt digital in hoher Qualität Video und Audio über ein gemeinsames Kabel. In HDMI ist ein zusammenhängendes Kopierschutz-Konzept (DRM) integriert, was insbesondere in der Anfangszeit auf Kritik stieß.

HDMI basiert auf dem 1999 entwickelten Digital Visual Interface Digital (DVI-D), allerdings sind die Stecker deutlich kompakter, es wird weiterhin Audio und ein Kopierschutz unterstützt. Bei Verwendung geeigneter Kabel oder Adapter und bei Verzicht auf diese Eigenschaften sind DVI-D und HDMI 1.0–1.2 weitgehend kompatibel.

Ursprünglich als Schnittstelle der Unterhaltungselektronik entwickelt, ist HDMI neben DisplayPort zögerlich auch zu einer Schnittstelle von Grafikkarten und Computermonitoren geworden und hat den VGA-Anschluss und Digital Visual Interface in seinen drei Varianten als Computerschnittstelle vollständig verdrängt. DisplayPort hat dabei Features von HDMI übernommen und HDMI hat Features von DisplayPort übernommen, so dass beide Schnittstellen ähnliche Eigenschaften aufweisen.

HDMI ist eine im Wesentlichen unidirektionale Schnittstelle, in der ein Quellgerät (Blu-ray-, DVD-Player, Spielkonsole, SAT-Receiver, Computer, hochpreisige Smartphones, Tabletcomputer, Camcorder oder Digitalkamera) ein Multimedia-Signal an ein digitales Zielgerät (TV-Gerät, Computermonitor, Videoprojektor, VR-Brillen) überträgt.

Die aktuelle HDMI-Version ist 2.1a, welche am 4. Januar 2022 auf der CES 2022 der Öffentlichkeit vorgestellt wurde.(...)

Am 4. Januar 2017 wurde erstmals auf der CES in Las Vegas das neue HDMI-Format 2.1 vorgestellt. Am 28. November 2017 wurde der offizielle Standard HDMI 2.1 veröffentlicht.[15]

HDMI 2.1 unterscheidet sich deutlich von allen vorherigen HDMI-Versionen, obwohl die Versionsnummer dies nicht unbedingt suggeriert:

  • Man verabschiedete sich von einer pixeltaktsynchronen Übertragung und wechselte zu einer reinen Datenübertragung mit festem Takt wie es bei DisplayPort seit 2006 der Fall ist.
  • Als Takte sind 6 GHz (FRL 6x4 bzw. 24 Gbps) und 12 GHz (FRL 12x4 bzw. 48 Gbps) möglich.[16]
  • Das freiwerdende Adernpaar für den ehemaligen Pixeltakt wird genauso wie bei DisplayPort für die Datenübertragung genutzt.
  • Bei der Modulation wechselte man vom 8b10b-Code zum 10 % effizienteren 16b18b-Code.
  • Die damit möglichen Übertragungsraten betragen mit 21⅓ GBit/s (fix) bzw. 42⅔ GBit/s (fix) etwa das anderthalbfache bzw. dreifache von HDMI 2.0.
  • Weiterhin entfallen die „Zwangspausen“ für die Zeilen- und Bildaustastlücken, auch wenn diese häufig vorher bei TFT-Ansteuerung schon verkürzt waren, die aber immer noch als Altlast der Kathodenstrahlröhrenzeit mitgeschleppt wurden.

Die Abkehr von der veralteten Pixeltakt-getriebenen Übertragung (die eine Altlast aus Analogzeiten war) zu einer reinen Datenübertragung erlaubt die Implementierung von Quick Media Switching (Wechsel von Auflösung und Bildrate ohne Unterbrechung), Quick Frame Transport (Übertragung von Frames mit der maximalen Übertragungsrate der Verbindung) und Display Streams Compression (Datenkompression wie bei DisplayPort 1.4) und vereinfacht die Implementierung von Variable Refresh Rate (VRR).

Die Neuerungen sind:

  • Weitaus höhere Übertragungsrate (bei Ausschöpfen aller Möglichkeiten ist diese knapp neunmal so groß wie die von HDMI 2.0). Damit sind zum einen weitaus höhere Auflösungen ohne Abstriche (bspw. 4K mit 120 Hz und 10 bit) übertragbar und zum anderen VRR-Modi mit geringerer Übertragungslatenz möglich (2560 × 1440 sind in 0,7 ms statt in 6,2 ms übertragen).
  • Unterstützung von höheren Auflösungen und schnelleren Bildwiederholfrequenzen, z. B. von 7680×4320 mit 60 Hz und 3840×2160 mit 240 Hz[17].
  • Es gibt zwei Übertragungsmodi: Der 24Gbps-Modus (FRL 6x4), der die gleichen Anforderungen an Kabel wie HDMI 2.0 bei maximaler Datenrate stellt (HDMI Premium High Speed), aber effektiv nur 21⅓ GBit/s überträgt und einen 48Gbps-Modus (FRL 12x4), der effektiv 42⅔ GBit/s überträgt, aber deutlich höhere Ansprüche an eingesetzte Kabel stellt (HDMI Ultra High Speed oder auch 48G genannt).[18][19]
  • Dynamic HDR (HDR dynamic metadata) stellt sicher, dass Videos mit idealen Werten für Farbtiefe, Detail, Bildhelligkeit, Kontrast und breiterem Farbspektrum angezeigt wird, und zwar auf einer Basis nach jeder einzelnen Szene oder sogar jedes Frames. Es werden hierbei alle vier dynamischen HDR-Technologien, die bei SMPTE unter der Bezeichnung ST-2094 festgelegt sind und auf der von Dolby erfundenen PQ-Kurve ST-2084 basieren, als Übertragung unterstützt. Diese wären: Dolby Vision, SL-HDR1 (Philips), Advanced HDR (Technicolor) und HDR10+ (Samsung).[20]
  • Enhanced Audio Return Channel (eARC) unterstützt Audio-Formate wie objektbasiertes Audio und ermöglicht Steuerungsmöglichkeiten des Audiosignals einschließlich automatischer Erkennung des Geräts.
  • Variable Refresh Rate (VRR): Der VRR-Modus gestattet eine variable Bildwiederholfrequenz, die es einem Grafikprozessor ermöglicht, Bilder sofort nach deren Berechnung anzuzeigen. Damit ist die Anzeige von Spielen und technischen Darstellungen mit geringstmöglicher Latenz ohne Frame Tearing und ohne Stottern möglich.[21]
  • Quick Media Switching (QMS): HDMI 2.1 unterstützt den Wechsel von Auflösung und/oder Bildrate ohne Bildaussetzer. FRL ist dafür eine Voraussetzung.
  • Quick Frame Transport (QFT): HDMI 2.1 unterstützt eine schnellere Übertragung von Frames unabhängig von der Framerate, nur noch limitiert durch die Übertragungsrate.
  • Auto Low Latency Mode (ALLM): HDMI 2.1 unterstützt verschiedene Processing-Modi und deren Wechsel. So kann bei Wiedergabe von Videos Frame-Interpolation verbunden mit höheren Latenzen aktiviert werden und bei Wiedergabe von Spielen diese abgeschaltet werden.
  • VESA Display Streams Compression 1.2 (DSC 1.2a): Visuell verlustfreie Komprimierung wie bei DisplayPort


  Quelle: wikipedia, abgerufen am 31.07.23 → wikipedia /HDBaseT



"Bezeichnet die notwendige Software und Hardware um Konferenzen oder Meetings durchzuführen. Dazu werden Konferenzräume üblicherweise mit (...) Displays, Mikrofonen und Lautsprechern sowie der nötigen Steuerung ausgestattet. Auch Cloudlösungen, die eine Weiterverarbeitung der erstellten Dokumente ermöglichen, zählen zum Bereich Konferenztechnik."

Quelle: visutec_glossar - abgerufen am 31.07.2023

Steht für "Liquid Crystal Display". Die Technologie beruht auf Flüssigglaskristallen, die in Bildschirmen oder Projektoren eingesetzt werden. 




  • Keine Stichwörter