Medientechnologie

"Medientechnologie ist ein Gebiet der Ingenieurwissenschaften, das sich mit den Geräten, Signalen, Verfahren und Abläufen im Bereich der elektronischen Medien beschäftigt.

Es umfasst damit Technologien im Bereich von Audio, Fotografie, Video, Animation, Druck und Internet. Dabei wird die gesamte Verarbeitungskette von der Produktion (Aufnahme oder elektronische Generierung), über die Signalverarbeitung, die Übertragung bis zur Speicherung und Wiedergabe betrachtet."
Quelle: wikipedia, abgerufen am 28.07.23 → wikipedia/Medientechnologie


"4K bezeichnet eine Auflösung, die viermal höher als Full HD ist. Eine Full HD-Auflösung beträgt 1080 x 1920 Bildpunkte. 4K bedeutet 2160 x 3840 Bildpunkte. Die Anzahl der Bildpunkte wird also horizontal und vertikal verdoppelt."

Quelle: visutec_glossar - abgerufen am 28.07.2023

"Ein Aktivlautsprecher besitzt eine aktive Frequenzweiche und einen eingebauten Verstärker. Die eingebaute elektronische Frequenzweiche teilt das breitbandige Signal zunächst in verschiedene Frequenzbereiche."

Quelle: tasteone/glossar-fuer-medientechnik, abgerufen am 31.07.2023

Die Relevanz der Vor- und Nachteile hängt teilweise vom Verwendungszweck ab. Vorteile:

  • Genaue Anpassung der Verstärker auf die verwendeten Lautsprecher und somit Vermeidung von Beschädigungen des Verstärkers bzw. Lautsprechers durch fehlangepasste bzw. überlastete Bauteile. Typisch sind bei Passivboxen überlastete Hochtöner durch starke Verzerrungen (Obertöne aus Verstärker-Clipping) bei Übersteuerung mit Basssignalen.
  • ggf. geringere Kosten als bei der Kombination von Passivbox und Verstärker, da die passive im Leistungsbereich liegende Frequenzweiche eingespart werden kann. Hochwertige Weichenbauteile sind kostspielig, während Verstärker und Netzteile immer günstiger werden.
  • Frequenzgangabweichungen des Lautsprechers können leicht durch entsprechende Filter bereits auf Linepegelniveau korrigiert werden. Gegenüber Passivkonzepten können dabei sogar schmalbandige Frequenzgangeinbrüche des Lautsprecherchassis aufholend (verstärkend) linearisiert werden und mit Digitaltechnik Laufzeiten korrigiert werden.
  • Durch die besonders kurzen Kabelverbindung zwischen Lautsprecher und Verstärker (Endstufe) ist ein hoher Dämpfungsfaktor möglich. Dieses kann eine höhere Klangqualität zur Folge haben.
  • Teure aufwendige Lautsprecherkabel entfallen. Zunehmend werden drahtlose (WLAN, Bluetooth etc.) Audioverbindungen verwendet.
    Quelle: wikipedia/Aktivbox - abgerufen am 31.07.2023

„ANSI-Lumen“ ist eine umgangssprachliche Bezeichnung im Zusammenhang mit der technischen Spezifikation von Projektoren. Dabei handelt es sich nicht etwa um eine spezielle lichttechnische Einheit, sondern es sagt aus, dass der Lichtstrom (umgangssprachlich „die Helligkeit“) des Projektors in der Einheit Lumen gemäß einer Messvorschrift ermittelt wurde, die vom American National Standards Institute (ANSI) entwickelt wurde.[12]

Zur Vorbereitung der Messung ist der Projektor so einzustellen, dass vor einem weißen Hintergrund ein fünf Prozent graugetöntes Feld von einem zehn Prozent graugetönten Feld zu unterscheiden ist, also zwei sehr helle Grautöne. Die Projektionsfläche wird dann in drei Spalten und drei Reihen geteilt und der Mittelwert der Beleuchtungsstärke E v (in Lux) aller neun Felder ermittelt. Dieser Mittelwert multipliziert mit der Projektionsfläche A A ergibt die „ANSI-Lumen“:[13]  Φ v = E v ⋅ A

Die Angaben der meisten Hersteller von Projektoren beziehen sich auf die normgerechten Maximaleinstellungen, die für die Praxis nur selten optimal sind. Die bei optimaler Einstellung erreichten Lichtströme liegen teilweise deutlich darunter. Quelle: wikipedia, abgerufen am 31.07.23 → wikipedia /HDMI

Ein Array-Mikrofon wird meistens an der Decke oder auch in der Mitte des Konferenztisches positioniert. Es setzt sich aus mehreren, teilweise bis zu 100 einzelnen Mikrofon-Kapseln zusammen. Deren Signale wiederum werden über einen digitalen Signalprozessor (DSP) aufsummiert.

Die Aufnahmerichtung von Array-Mikrofonen kann gezielt beeinflusst werden und sie auf die Person ausrichten, die gerade das Wort hat. Selbst, wenn sich der Sprecher im Raum bewegt, kann ein Array-Mikrofon seine Achse entsprechend ausrichten.

Ein solches Audiosystem kann als Decken-Array in das existierende Deckenraster integriert werden oder wird über Seilkonstruktionen abgehängt. Decken-Array-Mikrofone und Tisch-Array-Mikrofone können unauffällig montiert werden, bieten eine klare Sprachverständlichkeit und betonen den Beitrag des jeweils aktuellen Sprechers.    Quelle: tasteone/glossar-fuer-medientechnik, abgerufen am 31.07.2023

Der Begriff Augmented Reality bedeutet wörtlich übersetzt "erweiterte Realität" und ergänzt die Realität mit technischen Hilfsmitteln um digitale Elemente. Augmented Reality braucht dabei im Gegensatz zu Virtual Reality keine teuren Brillen, denn sie kann auf verschiedensten Endgeräten wie zum Beispiel TVs, Smartphones, Tablets oder Notebooks konsumiert werden. So gibt es zum Beispiel Augmented Reality Apps, mit denen User Möbelstücke schon einmal digital im eigenen Zuhause ausprobieren können. Durch die Smartphone- oder Tablet-Kamera sieht man dabei die eigenen vier Wände, kann das gewünschte Objekt darin platzieren und so sehen, wie es wirkt. Auch eigentlich statische Anzeigen, Prospekte oder Visitenkarten lassen sich mittels Augmented Reality virtuell erweitern und liefern so mehr Informationen, als die bloße Bildbetrachtung. Ebenfalls ein bekanntes Beispiel für Augmented Reality: Helmvisiere von Kampfpiloten, in die nützliche Informationen eingeblendet wurden. Hardware für Augmented Reality braucht Sensoren zur Erfassung der realen Umgebung (z.B. Kamera), Schnittstellen zur Erfassung von Nutzereingaben (z.B. Touchscreen), einen Prozessor zur Datenberechnung und -verarbeitung sowie Schnittstellen zur Ausgabe von Daten und Informationen (z.B. Bildschirm). Entsprechende Software wertet dann Kamerabilder sowie andere Sensordaten aus, bindet bestehende Datenquellen an und kombiniert Kamerabilder mit digitalen, visuellen Erweiterungen. Quelle: tasteone/glossar-fuer-medientechnik, abgerufen am 31.07.2023

"AV ist die Abkürzung für Audio / Video. Das Signalmanagement ist die gesamte Steuerung und Hardware eines System, das für die Verwaltung und reibungslose Funktionsweise von AV-Signalen zuständig ist."  Quelle: visutec_glossar - abgerufen am 28.07.2023

Der Begriff AV-Fachplanung steht für audiovisuelle Fachplanung. Es handelt sich um einen Bereich der technischen Planung, der sich mit der Integration von audiovisuellen Medien und Technologien in Gebäude- oder Raumkonzepte befasst. Die AV-Fachplanung umfasst die Planung, Installation und Konfiguration von audiovisuellen Systemen wie beispielsweise Konferenzraumtechnik, Digital Signage, Mediensteuerung, Videokonferenzsysteme, Präsentations- und Beschallungstechnik.

Ein AV-Fachplaner oder eine AV-Fachplanerin arbeitet eng mit Architekten, Innenarchitekten und anderen Fachleuten zusammen, um sicherzustellen, dass die audiovisuellen Systeme in das Gesamtkonzept eines Gebäudes oder Raumes integriert werden und den Bedürfnissen der Nutzer entsprechen. Sie analysieren die Anforderungen des Projekts, erstellen technische Spezifikationen, entwickeln Lösungskonzepte, erstellen Kosten- und Zeitpläne und überwachen die Installation und Inbetriebnahme der Systeme.

Die AV-Fachplanung spielt eine wichtige Rolle in Bereichen wie Unternehmen, Bildungseinrichtungen, Konferenzzentren, Museen, Veranstaltungsorten und anderen Umgebungen, in denen audiovisuelle Technologien eingesetzt werden, um Informationen zu präsentieren, zu kommunizieren oder zu unterhalten.

Quelle: tasteone/glossar-fuer-medientechnik, abgerufen am 31.07.2023

"AV over IP steht für „Audio-Visual over Internet Protocol“. Im Wesentlichen ist es die Übertragung von Audio- und Video-Daten über ein Netzwerk wie z.B. ein LAN, WLAN oder das Internet.
Im Gegensatz zu herkömmlichen AV-Umgebungen bezieht sich AV over IP (auch manchmal nur als AV/IP bezeichnet) auf die Verwendung von Standard-Netzwerkgeräten zum Übertragen und Schalten von Video und Audio. Das Konzept von „Video over IP“ existiert schon lange. Es umfasst alles vom internetbasierten Live- oder On-Demand-Video-Streaming bis hin zu professionellen Video-Distributions-Infrastrukturen in Produktions- und Broadcast-Studios. Was in den letzten Jahren im professionellen AV-Bereich diskutiert wird, ist die schrittweise Ablösung traditioneller AV-Infrastrukturen durch IP-basierte Strukturen - daher auch der Begriff AV over IP. Für einige ist die Idee, IP im AV-Bereich der Einrichtung zu verwenden, ziemlich neu, während es für andere schon ein vertrauter Anblick geworden ist.

Unterschied zwischen herkömmlichen AV- undAV-over-IP-Konfigurationen:

An der Basis bleiben alle Elemente/Komponenten in einer AV-Umgebung identisch. Traditionelle AV-Infrastrukturen befassen sich hauptsächlich mit der Erweiterung und dem Austausch von Audio- und Video-Daten. Das Ziel des AV-Systems besteht darin, Nutzern die Möglichkeit zu geben, ihre Video- und Audioquellen auf ihren Monitoren/Displays und auf ihren Beschallungssystemen anzusehen und/oder zu hören. Um dies zu ermöglichen, müssen alle Quellen erfasst, verschoben, geschaltet und angezeigt werden können.(...)

Viele AV-Produkte sind so konzipiert, dass die Bild- und/oder Tonqualität während des Verschiebens und Umschaltens der Quellen erhalten bleibt. Weitere Leistungselemente sind ein schnelles Switching sowie niedrige Latenz während der gesamten Übertragung. Darüber hinaus können einige AV-Geräte Verarbeitungsvorgänge durchführen, beispielsweise die Quellen multiplizieren und sie gleichzeitig an mehr als einer Stelle/einem Ausgang für den Verbraucher zur Verfügung zu stellen. Bei einer professionellen Verarbeitung müssen auch Änderungen an den Quellen in Echtzeit vorgenommen werden können. Dies kann das Ändern des Videosignals von einem Typ zu einem anderen (z. B. DisplayPort zu HDMI), Zuschneiden, Hoch- oder Herunterskalieren (z. B. von HD zu 4K oder 4K zu HD), Compositing (Text-Overlays oder Kombinieren mehrerer Videos) umfassen und mehr. Alles, was oben für traditionelles AV beschrieben wurde, bleibt auch bei der Implementierung von AV über IP erhalten. Der einzige Unterschied besteht darin, dass das Video- und Audiomaterial, das sich durch die Reihe von Geräte und Kabeln bewegt, von leitungsbasierten zu paketbasierten Computerdatennetzwerken und Telefon-over-IP wechselt. 

Das Internet Protocol (IP) fordert eine Reihe von Regeln, die das Format von Daten bestimmen, die letztendlich über das Internet oder andere Video- und Audio-Netzwerke gesendet werden können. Die AV-over-IP-Technologie organisiert dabei wirkungsvoll die audiovisuellen Daten so, dass sie diesen festgesetzten Regeln entsprechen. Über IP übertragene Daten sind in Pakete unterteilt. Jedes Paket enthält einen Teil der ursprünglichen Datei sowie zusätzliche Steuerinformationen wie Quelle, Ziel und Sequenz. AV over IP unterscheidet sich von herkömmlichen AV durch die Entwicklung der folgenden Schlüsselaspekte: skalierbares Switching (viel mehr Ports und ein einfaches Hinzufügen weiterer Ports), problemloses Überwinden größerer Distanzen, verbessertes Verhältnis von Eingängen zu Ausgängen, Videostandards, die über den lokalen hinausgehen, Konvergenz mit Daten und Kommunikation und neue Optionen in der Videoverarbeitung.(...)

Das Verhältnis von Ein- zu Ausgängen kann im Vergleich zu herkömmlichen, fest verdrahteten Video-Kreuzschienen viel besser zugeschnitten werden. So ist es möglich, VIELE Eingänge aber nur wenige Ausgänge oder nur wenige Eingänge, aber VIELE Ausgänge zur Verfügung zu stellen. Oder man kann einfach VIELE von beiden und in sehr unterschiedlichen Mengen konfigurieren. Eine weitere Grenze des traditionellen AV ist der Abstand zwischen den einzelnen Komponenten. Alle festverdrahteten digitalen Übertragungen verfügen über eine praktische Grenze für die maximalste Entfernung. Kurze Entfernungen von nur wenigen Metern können kostengünstig konventionell verkabelt werden. Sobald aber mehrere Meter überbrückt werden müssen, steigen die Kosten durch die Verwendung spezieller Verlängerungskabel. Auch wenn AV-Leitungen in Komplettsysteme über Hunderte von Meternverlegt werden, steigen die Kosten für die Installation und Erweiterung erheblich.(...)

Einige AV-over-IP-Produkte verwenden eine standardbasierte Paketierung für die Übertragung in IP-Netzwerken und Kompatibilität mit IP-Switches. Andere verwenden proprietäre Paketierungsschemata, die auch in IP-Netzwerken und Standard-IP-Switches funktionieren, aber nicht zu anderen Produkten auf dem Markt kompatibel sind. Im Allgemeinen bieten auf Standards basierende Systeme das Potenzial für die Interoperabilität zwischen Produkten verschiedener Anbieter. Viel wichtiger jedoch sind Standards, die sich aus der Arbeit vieler Akteure ergeben, die die Bedürfnisse aus vielen verschiedenen technologischen Perspektiven abwägen. Auf Standards basierende Produkte haben in der Regel eine Roadmap und eine Entwicklung, die wesentlich mehr Vorteile für die Infrastrukturmigration bietet als alles andere, das auf einem einzelnen Anbieter basiert.

Beispiele traditionellem AV vs. AV over IP
Traditionelle AV Beispiele:

Digitale Video Tx und Rx Komponenten und/oder kabelgebundene digitale Video Matrix-Switcher.
a) HDMI b) DisplayPort c) SDI d) HDBaseT

AV over IP Beispiele:

1. Standard-basierte AV over IP Produkte
a) SMPTE 21110 Spezifikation für unkomprimiertes Video over IP; b) JPEG-2000 leicht komprimiertes Video over IP; c) H.264 hocheffizient komprimiertes Video over IP

2. Proprietäre AV over IP Produkte
Die Pakete zwischen Codierern und Decodierern respektieren das Internetprotokoll und die Ströme können auf Standard-IP-Vermittlungen geschaltet werden, aber das Kodierungsschema (Paketierung von Video) ist proprietär und inkompatibel mit irgendwelchen Vorrichtungen, die standardbasierte Codecs verwenden.

Wie sicher ist AV over IP?

AV over IP kann in vollständig getrennten Netzwerken eingesetzt werden, die niemals mit Datenpaketen aus dem Datennetzwerk oder Kommunikationsnetzwerk einer Organisation koexistieren. Alternativ können bestehende Infrastrukturen der Netzwerkverkabelung und -vermittlung für AV-über-IP-Anwendungen genutzt werden und bereits häufig verwendet werden. AV-über-IP-Implementierungen, unabhängig davon ob es sich um separate oder vorhandene Infrastruktur handelt, können ohne Beeinträchtigung der IT-Netzwerksicherheit durchgeführt werden. In vielen Unternehmen ist die Fähigkeit, Daten, Kommunikation und AV zusammen zu nutzen (auch bekannt als „Konvergenz“), eine treibende Kraft und ein wichtiger Vorteil dafür, wie AV angepasst oder neu bereitgestellt wird."

abgerufen am 31.07.23 bei Was_ist_AV_over_IP.pdf - Text verkürzt

"Ein Videoprojektor (auch Bildwerfer, Digitalprojektor, Daten-Video-Projektor), umgangssprachlich meist Beamer [ˈbiːmɐ] (pseudo-englische Wortprägung, abgeleitet von englisch beam, deutsch „Strahl“), ist ein spezieller Projektor, der stehende und bewegte Bilder aus einem visuellen Ausgabegerät (Fernsehempfänger, Computer, DVD-Spieler, Videorekorder usw.) für ein Publikum in vergrößerter Form an eine Bildwand (auch Projektionswand) projiziert. Die Bandbreite der Geräte reicht von kleinen Präsentationsprojektoren für den mobilen Einsatz bis zu stationären Hochleistungsprojektoren.(...) Videoprojektoren lassen sich grundsätzlich hinsichtlich des verwendeten Projektionsverfahrens unterscheiden. (LCD-Projektor, DLP-Projektor, LED-Projektor, LCoS-Projektor, Laser- Projektor)"

Quelle: wikipedia, abgerufen am 28.07.23 → wikipedia / Videoprojektor

undefinedVergleich der Auflösungen im Verhältnis 4:3

Die Bildauflösung, kurz auch Auflösung genannt, ist ein umgangssprachlicher Begriff für die Bildschärfe bzw. Bildgröße einer Rastergrafik. Sie wird durch die Gesamtzahl der Bildpunkte oder durch die Anzahl der Spalten (Breite) und Zeilen (Höhe) einer Rastergrafik angegeben.

Auflösung im technischen Sinn ist wiedergabebezogen. Solange die Wiedergabe auf physikalisch immer gleichen Medien erfolgt, beispielsweise einem 9 × 13 cm großen Fotoabzug oder identischen Fernsehern, hängt die dort erreichte Qualität auch von der Größe der ursprünglichen Rastergrafik ab. Da im Allgemeinen jedoch nicht klar ist, wie die Ausgabe in allen späteren Fällen genau erfolgt, kann die „Bildauflösung“ nicht als direktes Maß für eine allgemeine Wiedergabequalität dienen. Zudem sind die Kriterien je nach Verwendungszweck unterschiedlich, da auch der subjektive Eindruck eines Bildes entscheidet.

Für technische Prozesse, die eine Rastergrafik wiedergeben, gilt: Je größer die Grafik ist („Bildauflösung“ bzw. Bildgröße in Pixeln),

  • desto besser kann die erreichte Wiedergabequalität sein
  • oder desto größer kann mit identischer Qualität wiedergeben werden.

Bedingt durch diverse technische Faktoren ist der Zusammenhang nicht linear bzw. nur eingeschränkt linear. In der Praxis versucht man oft, eine möglichst große Grafik zu verwenden, um eine spätere Wiedergabequalität zumindest nicht von vorneherein einzuschränken. Im Einzelfall kann dies aber auch unverhältnismäßig aufwendig werden.

Darstellung der Größe

Sinnbild für

Bedienelemente zur Einstellung der Bildgröße nach IEC 60417


Die Grafikgröße kann in zwei Varianten dargestellt werden:

  1. als Gesamtanzahl der Bildpunkte, was zum Beispiel in der Digitalfotografie mit der Einheit Megapixel („Millionen Bildpunkte“) üblich ist,
  2. als Anzahl Bildpunkte je Zeile (horizontal) mal Anzahl Bildpunkte je Spalte (vertikal). Die Angabe erfolgt dann z. B. als „1024 × 768“ und entspricht oft einem Grafikstandard. In der Fernsehtechnik wird gleichbedeutend von „Punkten pro Zeile“ gesprochen und mit „Punkten pro Zeile“ mal „Anzahl Zeilen“ gerechnet.

In der zweiten, ausführlicheren Variante wird auch das Verhältnis zwischen Breite und Höhe ersichtlich, so dass man eine Vorstellung vom Seitenverhältnis bekommt.

Sind in einer Grafik die Bildpunkte nicht in einem geometrisch regelmäßigen Raster, sondern willkürlich angeordnet, oder besitzt das Bild selbst gar keine Rechteck- (oder andere regelmäßige) Form, so sind als Auflösung nur die Gesamtzahl der Bildpunkte und eventuell ihre lokale Dichte (pro Längeneinheit oder Fläche) bestimmbar. Eine Angabe des Pixelzahl-Produkts (Breite × Höhe) ist dann meist nicht möglich. So etwa in der Silberhalogenid-Fotografie oder bei LED-Verkehrsleitsystemen, die mit diskreten – nicht bildfeldfüllenden – Lichtpunkten nur wenige festgelegte Zeichendarstellungen signalisieren können, z. B. – als Tempolimit – „80“, „100“ oder Diagonale im Doppelkreis. Auch viele LCDs verwenden Anordnungen, die nicht einer Punktmatrix entsprechen, insbesondere in einfachen Geräten wie z. B. Wetterstationen oder Digitaluhren. Diese Anordnungen können aber durchaus bildfüllend sein, da LCD-Pixel nicht rechteckig sein müssen. Bei Zeilendisplays, die hauptsächlich für die Darstellung von Text verwendet werden, wird die Auflösung oft in Zeilen × Spalten angegeben, wobei jede Spalte ein Zeichen darstellen kann. Dasselbe gilt für den Textmodus im Bereich der Computergrafik.

Bildschirmwiedergabe

Auf einem modernen Bildanzeigegerät (...), wie zum Beispiel einem Plasma- oder Flüssigkristallbildschirm, ist das Wiedergaberaster bauartbedingt fest vorgegeben. Es kann sich von dem Format des Eingangssignals unterscheiden. Zur möglichst korrekten Darstellung müssen die Pixelzahlen von Breite und Höhe des Signals dann auf das Ausgaberaster transformiert (skaliert) werden. Hierbei kommt es – insbesondere bei einer Verkleinerung, aber auch bei einer Vergrößerung – zu Verlusten von Bildinhalten. Es können Bildinformationen verlorengehen oder Bildartefakte entstehen. Die Ausführung und der technische Aufwand, der bei der Transformation betrieben wird, bestimmen die Wiedergabequalität, insbesondere auch die wahrgenommene Qualität.
(...)

Native Auflösung

Eine Auflösung, die exakt der physikalischen digitalen Auflösung (Pixelzahl) eines Anzeigegerätes entspricht, wird als native Auflösung bezeichnet.

Die Kenntnis der nativen Auflösung eines Anzeigegeräts ist deshalb wichtig, weil sich fast jede Auflösungsänderung negativ auf die Bildqualität auswirkt (eine Ausnahme ist z. B. die Vervierfachung der Auflösung, bei der die Qualität unverändert bleibt, sofern das Anzeigegerät keine Interpolation durchführt). Wenn möglich, sollte das digitale Bild nur an einer Stelle des Signalwegs in seiner Auflösung geändert werden, und zwar direkt in die native Auflösung des Anzeigegeräts.

Beispiel: Ein Foto mit 6 Megapixeln soll auf einem Beamer mit WXGA (1280 × 800) angezeigt werden. Der Laptop zur Wiedergabe hat eine Auflösung von 1680 × 1050 Bildpunkten. Würde man am Laptop diese Auflösung für den Ausgang zum Beamer nutzen, müsste das Foto zweimal umgerechnet werden: erst von 6 Megapixeln auf 1680 × 1050, und dann nochmal im Beamer von 1680 × 1050 auf 1280 × 800. Besser ist es, direkt am PC-Ausgang ebenfalls 1280 × 800 einzustellen, da beim einmaligen Umrechnen weniger Qualität verloren geht. Das Display des Laptops hingegen wird das Bild in aller Regel wieder auf 1680 × 1050 hochskalieren, wobei einige Grafiktreiber hier konfigurierbar sind, das Bild ähnlich einer Windowbox anzuzeigen.


Steht für "Bring Your Own Device" und ist in vielen Unternehmen und Hochschulen mittlerweile ein beliebtes Modell. Angestellte, Dozierende und Studierende bringen ihre eigenen Endgeräte (Laptop, Tablet, Smartphone) mit an die Uni. Diese können dann in das bestehende Netzwerk über Lan oder Wlan eingebunden werden. Leider gibt es für eigene Geräte an der HHU keinen Support von den zentralen Servicestellen der Uni (ZIM, IKM).

"Collaboration bedeutet allgemein erst einmal Zusammenarbeit. Gemeint ist die Vernetzung verschiedener Gruppen über digitale Infrastrukturen, um gemeinsam an Projekten zu arbeiten. Collaboration beinhaltet ausserdem Onlinemeetings, Webkonferenzen (z.B. webex) und der gemeinsame Zugriff auf Cloud basierte Ablagen (z.B. Sciebo). "
Quelle: visutec_glossar - abgerufen am 28.07.2023

"Bezeichnet die Präsentation von Inhalten auf digitalen Wiedergabegeräten. Dabei werden Displays oder Stelen als "elektronische Plakate" eingesetzt deren Inhalte über eine zentrale Steuerung geplant, bearbeitet und ausgespielt werden. Zum Einsatz kommt Digital Signage in Einkaufszentren oder auch an Flughäfen."
Quelle: visutec_glossar - abgerufen am 28.07.2023

An Hochschulen wird Digital Signage oft verwandt, um z.B. über den Türen von Hörsälen die aktuellen Veranstaltungen anzuzeigen.

"Bezeichnet eine Auflösung von 1920 x 1080 Bildpunkten. HD steht dabei für "High Definition". Full HD Auflösung ist mittlerweile bei Projektoren, Displays und anderen Wiedergabegeräten Standard." Quelle: visutec_glossar - abgerufen am 28.07.2023

Durch Monitore, Fernseher, Smartboards, LED - Walls und anderen Displays wird mittlerweile eine deutlich höhere Auflösung erzielt (2K, 4K...), sodaß dieser o.g. Standard in vielen Bereichen abgelöst wird.

"HDBaseT ist ein Verbindungsstandard zur Übertragung hochauflösender Multimediasignale.

Den Grundstein für die HDBaseT-Technologie liefert das 5Play-Konzept. 5Play beinhaltet die:

  1. Übertragung von unkomprimiertem ultra-HD Digital-Video und -Audio (2K/4K/3D),

  2. 100 Mbit/s Ethernet,

  3. USB 2.0,

  4. bis zu 100 W Stromversorgung (PoE) und

  5. Steuersignale

über ein einziges Netzwerkkabel (geschirmtes Kabel Cat.5e, für höhere Übertragungsraten Cat.6 oder besser) bis zu 100 m Länge.[1]

Die neueste Spezifikation des HDBaseT ermöglicht auch die Übertragung von Audio & Video, Ethernet, USB und Steuersignale für noch längere Distanzen über Glasfaser, daher fehlt hier die PoE-Stromversorgung.

An die Verbindung sind beim HDBaseT andere Voraussetzungen als bei den Cat-Standards gegeben. HDBaseT verwendet im Gegensatz zur herkömmlichen Datenkommunikation ein asymmetrisches Verfahren. Die Pakettechnologie ist ebenfalls anders aufgebaut. Die Steckverbindungen müssen möglichst stabil und ohne Wackelkontakt sein. Es ist bei einer Live-Übertragung nicht möglich, fehlerhafte Bits erneut zu senden. Zudem sind feste Kupferkabel (keine Litzen) für die Signalübertragung von großer Bedeutung. Auf dem Markt gibt es spezielle HDBaseT-Kabel (bestimmte Schirmung und Festigkeit). Zudem sollte die fertige Installation mit einem speziellen HDBaseT-Messgerät überprüft werden. (...)

Vorteile von HDBaseT

  • Kostengünstige Kabel/Installation

  • Einfache Verkabelung

  • 5Play: Video, Audio, Ethernet, USB 2.0, Stromversorgung und Steuersignale über ein einziges Kabel

  • Unkomprimierte Signalübertragung (keine Qualitätseinbußen)

  • Extrem niedrige Latenz (jedoch höher als bei SDI)

  • Industriestandard, jedoch nicht im Bereich der professionellen Veranstaltungstechnik und TV

Nachteile von HDBaseT

  • Teure Geräte (Verglichen mit SDI)

  • EDID Aushandlung von Auflösung/Framerate

  • nicht kompatibel mit Broadcast Equipment

  • Kabellänge darf nicht länger als 100 Meter sein

  • hohe Lizenzkosten für Gerätehersteller"

  Quelle: wikipedia, abgerufen am 28.07.23 → wikipedia /HDBaseT

Weitere Nachteile: Obwohl als Kabel ein herkömmliches CAT6a - Kabel verwendet werden kann, bleibt es eine Punkt zu Punkt-Verbindung. Die übertragenen HDMI-Signale entsprechen nicht den IP -Protokollen.  HDBaseT Signale sind daher auch nicht kompatibel mit anderen IT-Netzwerkkomponenten.

High Definition Multimedia Interface (...) ist eine seit April 2002 entwickelte drahtgebundene Schnittstelle für die digitale Bild- und Ton-Übertragung in der Unterhaltungselektronik. Sie ersetzte existierende analoge Schnittstellen wie SCART, Composite Video, S-Video und Component Video und überträgt digital in hoher Qualität Video und Audio über ein gemeinsames Kabel. In HDMI ist ein zusammenhängendes Kopierschutz-Konzept (DRM) integriert, was insbesondere in der Anfangszeit auf Kritik stieß.

HDMI basiert auf dem 1999 entwickelten Digital Visual Interface Digital (DVI-D), allerdings sind die Stecker deutlich kompakter, es wird weiterhin Audio und ein Kopierschutz unterstützt. Bei Verwendung geeigneter Kabel oder Adapter und bei Verzicht auf diese Eigenschaften sind DVI-D und HDMI 1.0–1.2 weitgehend kompatibel.

Ursprünglich als Schnittstelle der Unterhaltungselektronik entwickelt, ist HDMI neben DisplayPort zögerlich auch zu einer Schnittstelle von Grafikkarten und Computermonitoren geworden und hat den VGA-Anschluss und Digital Visual Interface in seinen drei Varianten als Computerschnittstelle vollständig verdrängt. DisplayPort hat dabei Features von HDMI übernommen und HDMI hat Features von DisplayPort übernommen, so dass beide Schnittstellen ähnliche Eigenschaften aufweisen.

HDMI ist eine im Wesentlichen unidirektionale Schnittstelle, in der ein Quellgerät (Blu-ray-, DVD-Player, Spielkonsole, SAT-Receiver, Computer, hochpreisige Smartphones, Tabletcomputer, Camcorder oder Digitalkamera) ein Multimedia-Signal an ein digitales Zielgerät (TV-Gerät, Computermonitor, Videoprojektor, VR-Brillen) überträgt.

Am 4. Januar 2017 wurde erstmals auf der CES in Las Vegas das neue HDMI-Format 2.1 vorgestellt. Am 28. November 2017 wurde der offizielle Standard HDMI 2.1 veröffentlicht.[15]

HDMI 2.1 unterscheidet sich deutlich von allen vorherigen HDMI-Versionen, obwohl die Versionsnummer dies nicht unbedingt suggeriert:

  • Man verabschiedete sich von einer pixeltaktsynchronen Übertragung und wechselte zu einer reinen Datenübertragung mit festem Takt wie es bei DisplayPort seit 2006 der Fall ist.
  • Als Takte sind 6 GHz (FRL 6x4 bzw. 24 Gbps) und 12 GHz (FRL 12x4 bzw. 48 Gbps) möglich.[16]
  • Das freiwerdende Adernpaar für den ehemaligen Pixeltakt wird genauso wie bei DisplayPort für die Datenübertragung genutzt.
  • Bei der Modulation wechselte man vom 8b10b-Code zum 10 % effizienteren 16b18b-Code.
  • Die damit möglichen Übertragungsraten betragen mit 21⅓ GBit/s (fix) bzw. 42⅔ GBit/s (fix) etwa das anderthalbfache bzw. dreifache von HDMI 2.0.
  • Weiterhin entfallen die „Zwangspausen“ für die Zeilen- und Bildaustastlücken, auch wenn diese häufig vorher bei TFT-Ansteuerung schon verkürzt waren, die aber immer noch als Altlast der Kathodenstrahlröhrenzeit mitgeschleppt wurden.

Die Abkehr von der veralteten Pixeltakt-getriebenen Übertragung (die eine Altlast aus Analogzeiten war) zu einer reinen Datenübertragung erlaubt die Implementierung von Quick Media Switching (Wechsel von Auflösung und Bildrate ohne Unterbrechung), Quick Frame Transport (Übertragung von Frames mit der maximalen Übertragungsrate der Verbindung) und Display Streams Compression (Datenkompression wie bei DisplayPort 1.4) und vereinfacht die Implementierung von Variable Refresh Rate (VRR).

Die Neuerungen sind:

  • Weitaus höhere Übertragungsrate (bei Ausschöpfen aller Möglichkeiten ist diese knapp neunmal so groß wie die von HDMI 2.0). Damit sind zum einen weitaus höhere Auflösungen ohne Abstriche (bspw. 4K mit 120 Hz und 10 bit) übertragbar und zum anderen VRR-Modi mit geringerer Übertragungslatenz möglich (2560 × 1440 sind in 0,7 ms statt in 6,2 ms übertragen).
  • Unterstützung von höheren Auflösungen und schnelleren Bildwiederholfrequenzen, z. B. von 7680×4320 mit 60 Hz und 3840×2160 mit 240 Hz[17].
  • Es gibt zwei Übertragungsmodi: Der 24Gbps-Modus (FRL 6x4), der die gleichen Anforderungen an Kabel wie HDMI 2.0 bei maximaler Datenrate stellt (HDMI Premium High Speed), aber effektiv nur 21⅓ GBit/s überträgt und einen 48Gbps-Modus (FRL 12x4), der effektiv 42⅔ GBit/s überträgt, aber deutlich höhere Ansprüche an eingesetzte Kabel stellt (HDMI Ultra High Speed oder auch 48G genannt).[18][19]
  • Dynamic HDR (HDR dynamic metadata) stellt sicher, dass Videos mit idealen Werten für Farbtiefe, Detail, Bildhelligkeit, Kontrast und breiterem Farbspektrum angezeigt wird, und zwar auf einer Basis nach jeder einzelnen Szene oder sogar jedes Frames. Es werden hierbei alle vier dynamischen HDR-Technologien, die bei SMPTE unter der Bezeichnung ST-2094 festgelegt sind und auf der von Dolby erfundenen PQ-Kurve ST-2084 basieren, als Übertragung unterstützt. Diese wären: Dolby Vision, SL-HDR1 (Philips), Advanced HDR (Technicolor) und HDR10+ (Samsung).[20]
  • Enhanced Audio Return Channel (eARC) unterstützt Audio-Formate wie objektbasiertes Audio und ermöglicht Steuerungsmöglichkeiten des Audiosignals einschließlich automatischer Erkennung des Geräts.
  • Variable Refresh Rate (VRR): Der VRR-Modus gestattet eine variable Bildwiederholfrequenz, die es einem Grafikprozessor ermöglicht, Bilder sofort nach deren Berechnung anzuzeigen. Damit ist die Anzeige von Spielen und technischen Darstellungen mit geringstmöglicher Latenz ohne Frame Tearing und ohne Stottern möglich.[21]
  • Quick Media Switching (QMS): HDMI 2.1 unterstützt den Wechsel von Auflösung und/oder Bildrate ohne Bildaussetzer. FRL ist dafür eine Voraussetzung.
  • Quick Frame Transport (QFT): HDMI 2.1 unterstützt eine schnellere Übertragung von Frames unabhängig von der Framerate, nur noch limitiert durch die Übertragungsrate.
  • Auto Low Latency Mode (ALLM): HDMI 2.1 unterstützt verschiedene Processing-Modi und deren Wechsel. So kann bei Wiedergabe von Videos Frame-Interpolation verbunden mit höheren Latenzen aktiviert werden und bei Wiedergabe von Spielen diese abgeschaltet werden.
  • VESA Display Streams Compression 1.2 (DSC 1.2a): Visuell verlustfreie Komprimierung wie bei DisplayPort


Die aktuelle HDMI-Version ist 2.1a, welche am 4. Januar 2022 auf der CES 2022 der Öffentlichkeit vorgestellt wurde.(...)  

Quelle: wikipedia, abgerufen am 31.07.23 → wikipedia /HDMI



"Bezeichnet die notwendige Software und Hardware um Konferenzen oder Meetings durchzuführen. Dazu werden Konferenzräume üblicherweise mit (...) Displays, Mikrofonen und Lautsprechern sowie der nötigen Steuerung ausgestattet. Auch Cloudlösungen, die eine Weiterverarbeitung der erstellten Dokumente ermöglichen, zählen zum Bereich Konferenztechnik."

Quelle: visutec_glossar - abgerufen am 31.07.2023

Steht für "Liquid Crystal Display". Die Technologie beruht auf Flüssigglaskristallen, die in Bildschirmen oder Projektoren eingesetzt werden. 

Quelle: visutec_glossar - abgerufen am 31.07.2023

Leuchtdioden zeichnen sich gegenüber Glühlampen durch eine deutlich geringe Stromaufnahme, eine hohe Lebensdauer und für die Bilddarstellung sehr gut geeignete und steuerbare Abstrahlcharakteristik aus. Eine maximale optische Qualität einer Videowand ist ohne höchste Qualität bei dieser Komponente nicht zu erzielen. Für ein homogenes Bild sind zudem identische Eigenschaften aller verwendeten Dioden wichtig. Langfristig ist immer ein Alterungsprozess festzustellen, der sich unter anderem in nachlassender Helligkeit sowie Farbveränderungen bemerkbar macht. Moderne Displaysteuerungen ermöglichen inzwischen eine "Kalibrierung" auf Pixelbasis. Das heißt, die einzelnen Pixel werden bezüglich ihrer Helligkeit und ihrer Farbe korrigiert.

SMD

Während herkömmliche Dioden mit Drähten einzeln auf die Platine gesteckt sind, fassen SMD-LEDs (Surface-mounted device) jeweils drei Dioden, per Oberflächenmontage verlötet, in einem Gehäuse auf einer Platine zusammen. Der mit der SMD-Bauweise ermöglichte geringere Pixelabstand und die hohe Bildqualität zahlen sich dort aus, wo der Betrachtungsabstand gering ist, also in erster Linie bei Indoor-Geräten. Dank der rasanten Entwicklung im Bereich von Helligkeit und Haltbarkeit finden SMDs allerdings auch zunehmend im Freien Verwendung.

IMD- und Mini-LED

IMD-LEDs stellen den nächsten Schritt der Miniaturisierung dar. Hier werden 4 Pixel, also 12 LEDs, in einem einzelnen Gehäuse verpackt und als Matrix vorverdrahtet. Mit diesen auch Mini-LED genannten Komponenten lassen sich Pixelabstände von 0,9 mm und weniger realisieren.Quelle: wikipedia - wikipedia/Videowand, abgerufen am 31.07.2023

Weiße LED

Da Leuchtdioden grundsätzlich nur monochromatisches Licht erzeugen, kommen verschiedene Verfahren zur additiven Farbmischung zum Einsatz, um weißes Licht zu erzeugen.

Nahaufnahme einer RGB-Leuchtdiode (Durchmesser ca. 5 mm) 
mit den drei einzelnen LED-Chip

Massenfertigung

Der Wirkungsgrad einer massengefertigten LED unterliegt einer gewissen Streuung. So wurden bereits vor Jahren einzelne LED-Labormuster mit hohem Wirkungsgrad im Labor hergestellt und bald darauf als Massenprodukt angekündigt. Mit dem sogenannten „Fluxbinning“ werden aus einer Produktion mehrere Klassen verschiedener Lichtströme selektiert und mit jeweils unterschiedlichen Preisen angeboten.

Quelle: wikipedia - wikipedia/LED, abgerufen am 31.07.2023 s

Als Videowand – oder auch LED-Wand, Video wall, LED wall – bezeichnet man eine große Anzeigefläche zur Darstellung von bewegten Bildern.

Verwendung finden Videowände häufig bei Großveranstaltungen wie Konzerten oder Sportveranstaltungen. In modernen Stadien und großen Multifunktionsarenen gehören sie mittlerweile zum Standard. Hierbei werden entweder ein Kamerabild oder grafische Informationen auf der Wand dargestellt, um den Zuschauern ein Fan-TV, Werbeeinblendungen oder statistische Daten zum Geschehen zu präsentieren. Es werden dabei im Gegensatz zum Filmprojektor elektronische Signale eingespielt. (...)

Daneben gibt es auch Großbildwände für Innenraum-Anwendungen wie in Kontrollräumen für Leitwarten oder Verkehrsleitzentralen. Wegen der dazu erforderlichen größeren Auflösung bei geringerem Betrachterabstand werden dazu jedoch nicht Paneele aufgebaut aus diskreten LEDs verwendet, sondern Kombinationen aus mehreren Plasma- oder LCD-Bildschirmen mit bedeutend höherer Auflösung. Allerdings haben LCD-Lösungen den Nachteil, dass zwischen den einzelnen Bildschirmen an den Stoßstellen Bildlücken von etwa 6 mm Breite entstehen. Dies entspricht der doppelten Rahmenbreite der einzelnen Bildschirme. Elektronik sorgt dafür, dass entweder Einzelbilder auf den unterschiedlichen Bildschirmen dargestellt oder aber bildschirmübergreifend ein Gesamtbild erzeugt wird.[4]

Aktuelle, großflächige Videowände sind meist sogenannte LED-Wände, das heißt, sie bilden das Bild aus vielen roten, grünen und blauen LEDs, also Leuchtdioden, die über eine Steuerelektronik angesteuert werden.

Folgende technische Eigenschaften gehören zur Funktion einer Videowand beziehungsweise der Beschreibung ihrer technischen Eigenschaften. Das Bildresultat entsteht aus einem komplexen Zusammenspiel dieser und weiterer Faktoren; je nach Verwendungszweck kann die Priorität unterschiedlich gelagert sein. So ergeben sich bei der Verwendung in Innenräumen andere Anforderungen als beim Einsatz im Freien – unter anderem ist bei Indoor-Veranstaltungen der Sichtabstand geringer, sodass eine feinere Auflösung von Vorteil ist. Bei Einstrahlung von Sonnenlicht im Outdoor-Bereich wiederum stehen neben der Allwettertauglichkeit die Helligkeit und das Kontrastverhalten im Vordergrund.

Videowände werden zunehmend auch in der Werbung eingesetzt. So entstand im Jahr 2010 der größte Testmarkt Deutschlands in Saarbrücken mit insgesamt 8 Videowänden mit einer Größe von 9 bis 15 m² an Bundesstraßen und an belebten Innenstadtstraßen. Der Testmarkt verfügt über eine Gesamtfläche an Videowandmodulen von 84 m² (Stand Juni 2011). Die Motive wechseln in der Regel im 6-Sekunden-Takt. Die Versorgung des Netzwerkes erfolgt über eine Client-Server-Lösung mit Internetanbindung jeder Videowand. Die Videowände können so im Sekundentakt an die Inhalte angepasst, aber auch per Fernwartung überwacht werden. Im Mai 2011 wurde eine Folge der Krimireihe Tatort unter Einbeziehung der Videowände in Saarbrücken abgedreht.

NPP Videowall im TV Studio

Die Miniaturisierung der LEDs macht inzwischen Pixelabstände < 1 mm möglich. Neue LED-Verpackungen (sogenannte Mini-LEDs) vereinen 4 komplette RGB-Pixel, also 12 einzelne LEDs, in einem einzelnen Gehäuse mit vorverdrahteter Matrix. Solche NPP-Displays (narrow pixel pitch) werden vor allem in TV-Studios aber auch für Konferenzräume oder digitale Kinos verwendet. Die Geräte können meist HDR-Inhalte in HDR10/HLG darstellen. Die nächste Stufe der Miniaturisierung stellen die Micro-LEDs dar. Bei der sogenannte COB-Technik (Chip on board), werden die Siliziumchips direkt auf die Leiterplatte bestückt, dort verdrahtet und vergossen. Problematisch ist es hier momentan noch die Herstellungsdefekte zu minimieren.

Quelle: wikipedia - wikipedia/Videowand, abgerufen am 31.07.2023


Steuert Licht-, Bild- und Tonsignale. Oft kommen Mediensteuerungen in Form von Kontroll-Panels in Konferenzräumen (oder Hörsälen) zum Einsatz. 

Quelle: visutec_glossar - abgerufen am 31.07.2023

Steht für "Organic Light Emitting Diode" und bezeichnet eine Technologie bei der organische Leuchtdioden zum Beispiel zur Bildwiedergabe in Displays eingesetzt werden. Durch ihre organische Beschaffenheit können die Dioden auch auf gebogenen Flächen angebracht werden. Dies ermöglicht die Produktion von einrollbaren Fernsehern oder klappbaren Smartphones. (...)

Quelle: visutec_glossar - abgerufen am 31.07.2023

Pixel ist die kleinste Einheit von Bildpunkten, die oft genutzt wird um die Auflösung von Projektoren und Displays anzugeben. Quelle: visutec_glossar - abgerufen am 31.07.2023

Drei LEDs in den Grundfarben Rot, Grün und Blau bilden jeweils eine Einheit, ein Pixel. Je mehr Pixel vorhanden sind, desto höher ist die resultierende Bildauflösung der Videowand.
Quelle: wikipedia - wikipedia/Videowand, abgerufen am 31.07.2023


Die Videotechnik (lateinisch video ‚ich sehe‘, von videre ‚sehen‘), kurz Video genannt,[1] umfasst die elektronischen Verfahren zur Aufnahme, Übertragung, Bearbeitung und Wiedergabe von bewegten Bildern sowie ggf. des Begleittons (siehe Audio).[2] Dazu gehören ferner die eingesetzten Geräte, wie Videokamera, Videorekorder und Bildschirm.[3] Aber auch die rein digitale Verarbeitung optischer Signale wird zur Videotechnik gezählt. (...)

Digitale Videotechnik

Die Ablösung der analogen Videotechnik hin zum digitalen Verfahren wurde durch die grafische Datenverarbeitung vorangetrieben. Leistungsstarke Grafikkarten ermöglichen PC-Nutzern das Rendering eigener Filme und deren Speicherung auf digitalen Systemen. Digitalsignale werden aus analogen Signalen gewonnen, indem diesen in regelmäßigen Abständen Proben (Samples) entnommen und den Werten der Proben Zahlen aus einem endlichen Zahlbereich zugeordnet werden.
Quelle: wikipedia - wikipedia/Videowand, abgerufen am 31.07.2023