Glossar

A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   X   Y   Z

A

AAC

AAC: Advanced Audio Coding
Hierbei handelt es sich um ein von der MPEG (Moving Picture Experts Group), unter Mitwirkung mehrerer Institute und Firmen, entwickeltes Audiodatenkompressionsverfahren, das als Weiterentwicklung von MPEG-1 und MPEG-2 Audio im MPEG-2-Standard spezifiziert und mit zusätzlichen Tools in MPEG-4 erweitert wurde. Als international standardisiertes Format zur verlustbehafteten Audiokomprimierung tritt es in Konkurrenz zu anderen Formaten wie MP3, WMA und (Ogg) Vorbis. So findet AAC unter anderem Verwendung in Online-Musikgeschäften wie dem iTunes Store und wird dort gepaart mit DRM-Systemen wie beispielsweise FairPlay von Apple. Der iPod von Apple z.B. kann AAC-kodierte Audiobeispiele abspielen.

Nokia, Samsung, Sony Ericsson, Siemens und andere Hersteller von Mobilfunkgeräten verwenden ebenfalls AAC, um das Hören von Musik auf dem Mobiltelefon zu ermöglichen. AAC hat eine höhere Kompressionsrate als vergleichbare Formate (maximal 1:16) und erreicht bereits ab 64 kbit/sek eine schon recht akzeptable, wenn auch eingeschränkte Stereo-Qualität. 96 kbit/sek entsprechen ordentlicher UKW-Qualität und 128 kbit/sek gelten als CD-nah.

zurückzum Seitenanfang

Allotment

In einem terrestrischen Frequenzplan beschreibt ein Allotment das Recht einer Funkverwaltung, in einem definierten geographischen Gebiet eine bestimmte Frequenz oder einen bestimmten Kanal zu benutzen. Dieses Recht umfasst die Möglichkeit, Funkanlagen in definiertem Leistungsumfang in Betrieb zu nehmen, und den Schutz des betriebenen Funkdienstes vor Störungen durch Nachbarn.

zurückzum Seitenanfang

AM

AM: Amplitude Modulation
Bei der Amplitudenmodulation ändert sich die Amplitude, also der Scheitelwert des Trägersignals, im Rhythmus des Sprach- oder Musiksignals. Dieses Modulationsverfahren wird heute noch bei der analogen Aussendung über Lang- (150 – 285 kHz), Mittel- (525 – 1605 kHz) und Kurzwelle (5,95 – 26,1 MHz) verwendet.

zurückzum Seitenanfang

API

API: Application Programming Interface
Ein API ist eine Schnittstelle, die von einem Softwaresystem anderen Programmen zur Anbindung an das System zur Verfügung gestellt wird. Neben dem Zugriff auf Datenbanken, auf die Hardware wie Festplatte, Grafikkarte oder Netzwerke kann ein API auch das Erstellen von Komponenten der grafischen Benutzeroberfläche ermöglichen oder vereinfachen. Im weiteren Sinne wird die Schnittstelle jeder Bibliothek (Library) als API bezeichnet.

Ein Beispiel für solch ein API ist MHP (Multimedia Home Plattform), welche für eine Applikation, die mit einem digitalen TV-Kanal ausgestrahlt wird, einen Satz von Funktionen und Verhaltensregeln definiert. Dieses API ermöglicht auf digitalen TV-Empfängern (Set-Top-Boxen) verschiedenster Hersteller einen einheitlichen Zugriff auf den Rückkanal oder die programmbegleitenden Informationen (EPG) und weitere Dienste.

zurückzum Seitenanfang

Assignment

In einem terrestrischen Frequenzplan beschreibt ein Assignment das Recht einer Funkverwaltung, eine Funkanlage mit festgelegten Eigenschaften (Lage, Leistung, Antennenhöhe etc.) in Betrieb zu nehmen. Dieses Recht umfasst auch den Schutz des betriebenen Funkdienstes vor Störungen durch Nachbarn.

zurückzum Seitenanfang

ATM

ATM: Asynchronous Transfer Mode
Bei ATM werden die Nutzdaten in 53 Bytes großen Paketen, den sogenannten ATM-Zellen übertragen. Die Übertragung erfolgt in sogenannten virtuellen Verbindungen, deren Parameter (Dienstklasse, QoS etc.) beim Verbindungsaufbau festgelegt werden. Bei ATM wird die Dienstgüte für die gesamte Dauer der Verbindung garantiert. ATM ist mit seinen Quality of Service (QoS) Mechanismen sehr gut für Echtzeit-Anwendungen geeignet und immer noch stark im Core vieler Netze vertreten, in denen Echtzeitdaten „unterwegs“ sind.

zurückzum Seitenanfang

B

BIFS

BIFS: Binary Format for Scenes
BIFS ist eine standardisierte Beschreibungssprache für multimediale Objekte einer Szene. BIFS basiert auf der Virtual Reality Modeling Language (VRML) und beschreibt Geometrien, Animationen und interaktive Anwendungen. In Korea wird BIFS bei Mobile-TV für interaktive Zusatzdienste verwendet.

zurückzum Seitenanfang

Binaural Sky

Der Binaural Sky wurde am IRT als neuartiges Wiedergabesystem speziell für binaurale Signale entworfen, basierend auf den Techniken Wellenfeldsynthese (WFS) und Binaural Room Synthesis (BRS). Ein über dem Kopf des Hörers befestigtes WFS-Array erzeugt an den Ohren fokussierte Quellen, welche in Kombination mit einem geeigneten HRTF-invers-Filterer als virtueller Kopfhörer wirken. Mittels Headtracking wird erreicht, dass bei Kopfdrehungen die Positionen der fokussierten Quellen relativ zu den Ohren unverändert bleiben, in bestimmten Grenzen auch bei Änderung der Kopfposition. Wird der virtuelle Kopfhörer für die Wiedergabe von binauralen Signalen eingesetzt, so erhält man eine dreidimensionale Abbildung von Schallereignissen ohne Verwendung von Kopfhörern und ohne im Sichtfeld aufgestellte Lautsprecher. Besonders interessant ist die Erzeugung eines virtuellen Abhörraums auf diese Weise (Wiedergabe von BRS-Signalen).

zurückzum Seitenanfang

BMF

BMF: Broadcast Metadata exchange Format
BMF ist ein neu entwickeltes Datenmodell, das die gesamte Produktionskette, also die Bereiche Programmplanung, Produktionsplanung und Produktion, Austausch und Ausstrahlung umfasst. Viele der für Teilbereiche bereits bestehenden Datenmodelle sind in BMF berücksichtigt. Damit erlaubt BMF bestehende Lösungen zu erweitern, ohne deren Strukturen ändern zu müssen.

zurückzum Seitenanfang

BRS

BRS: Binaural Room Synthesis
Das BRS-System erlaubt für Kopfhörer eine virtuelle Lautsprecherwiedergabe in professioneller Qualität. Es basiert auf Faltung der Quellen-Tonsignale mit binauralen Impulsantworten, welche vorher am Referenzort für jeden der Lautsprecher ermittelt werden (Messung mit Hilfe eines Kunstkopfes oder Berechnung, z.B. AUVIS). Ein kompletter Datensatz umfasst alle relevanten Ausrichtungen des Kunstkopfes und steht in der BRS-Datenbank zur Verfügung. Die Datenauswahl für die Faltung geschieht dynamisch mittels Headtracking in Abhängigkeit von der aktuellen Kopfausrichtung, so dass der Hörer die virtuellen Lautsprecher unabhängig von der Kopfhaltung (raumbezogen) lokalisiert. Ein auf diese Weise erzeugter virtueller Surround Sound Abhörraum ermöglicht perfekte Wiedergabe auch unter akustisch ungünstigen Abhörbedingungen (z.B. Ü-Wagen).

zurückzum Seitenanfang

BSS

BSS: Broadcast Satellite Services
Unter Broadcast Satellite Services (BSS) sind alle Rundfunk-Satellitendienste wie die Übertragung von analogem Fernsehen, digitalem Fernsehen (z.B. DVB-S), digitalem Hörfunk (z.B. S-DAB) und analogem Rundfunk zu verstehen.

zurückzum Seitenanfang

BWF

BWF: Broadcast Wave Format
BWF ist die Abkürzung für das Broadcast Wave Format und eine Erweiterung des sehr populären WAV-Audiofile-Formates. Es wurde hinsichtlich der Belange des Rundfunks 1997 von der Europäischen Rundfunk Union (EBU) spezifiziert und 2001 hinsichtlich der Speicherung von Metadaten erweitert.
Der Grund für dieses rundfunkspezifische Format ist der einfache Austausch von Tondaten zwischen verschiedenen rechnergestützten Plattformen für die Tonproduktion, Nachbearbeitung, Ausspielung und Archivierung. In BWF ist auch das Format der Metadaten spezifiziert, die dem Anwender erlauben, die verschiedenen Prozesse, denen das Audiofile unterzogen wurde, vollständig nach zu verfolgen. Diese Metadaten werden in einem sogenannten „Extension Chunk“ eines standardkonformen Audio-WAV-File gespeichert und dokumentieren somit den aktuellen Status des Tonsignals.

Heute ist BWF das am meisten benutzte Fileformat für die Speicherung von Audio in einer professionellen Produktionsumgebung. BWF wird nicht nur von reinen Audiorecordern, sondern auch für den Ton bei digitalen Bildrecordern in der Fernsehproduktion genutzt. BWF wurde sowohl für linearen PCM-Ton, als auch für komprimierte MPEG-Audio-Signale spezifiziert. Als Ergänzung für die filebasierte Mehrkanalproduktion und -postproduktion wurde 2005 ebenfalls von der EBU das RF64-Format als BWF-kompatibles Mehrkanalton-Fileformat spezifiziert, das durch den erweiterten Adressraum Filegrößen von weit mehr als 4 GByte zulässt.

zurückzum Seitenanfang

C

CEN

CEN: Comité Européen de Normalisation
Die Organisation CEN verwaltet im Auftrag der EU Normen des Industrie- und Dienstleistungsbereich. Damit sollen technische Handelshemmnisse in Europa abgebaut werden. Gemeinsam sind ETSI (European Telecommunications Standards Institute), CENELEC (Comité Européen de Normalisation Electrotechnique) und CEN für alle technischen Normen in Europa verantwortlich.

zurückzum Seitenanfang

CIF

CIF: Common Interleaved Frame
In DAB werden alle Audioprogramme und Datendienste als Teilkanäle (Sub-Channels) im sogenannten Main Service Channel (MSC) übertragen. Für die Übertragung der Sub-Channels wurde als kleinste Transporteinheit die sog. Capacity Unit (CU) definiert. Eine CU entspricht dabei 64 Bit. In einer Zeitdauer von 24 ms werden 864 CUs bei DAB ausgesendet. Diese Datenmenge wird als CIF bezeichnet. In den DAB-Modi II und III wird jeweils ein CIF pro Rahmen übertragen. Die DAB-Modi I und IV enthalten vier bzw. zwei CIFs.

zurückzum Seitenanfang

CIF

CIF: Common Intermediate Format
Bildformat von 352x288 Pixel

zurückzum Seitenanfang

Cognitive Radio

Cognitive Radio beschreibt ein Kommunikationsgerät, dass seine Datenübertragungsparameter (Signalform, Codierung usw.) kontinuierlich anpasst, um eine effiziente Kommunikation zu gewährleisten und die von ihm erzeugte Interferenz zu minimieren. Dazu wird ständig das spektrale Umfeld analysiert. Ein ideales Cognitive Radio verspricht eine deutliche Effizienzsteigerung der Spektrumsnutzung bei bidirektionaler Kommunikation.

zurückzum Seitenanfang

CPCM

CPCM: Copy Protection Content Management

Name einer Arbeitsgruppe in DVB unter dem “Technical Module”, die sich mit der Standardisierung von Kopierschutzmechanismen beschäftigt.

CPCM soll die existierenden Fernseh-Standards zur Übertragung um ein Verfahren zum Schutz der Rechte an den Inhalten ergänzen. CPCM wird beeinflusst durch die „Guidelines“ der EBU und den Forderungen der Europäischen Kommission, beispielsweise der Respektierung der Freiheit der Services innerhalb der EU oder der Gesetzesvorlagen, die durch die „European Copyright Directives“ vorgegeben sind.

zurückzum Seitenanfang

CU

CU: Capacity Units
In DAB werden die einzelnen Audioprogramme und Datendienste als Teil-Kanäle (Sub-Channels) im Main Service Channel (MSC) übertragen. Für die Übertragung der Sub-Channels wurde als kleinste Transporteinheit die sog. Capacity Unit (CU) definiert. Eine Cu entspricht dabei 64 Bit. In einer Zeitdauer von 24 ms werden 864 CUs bei DAB ausgesendet.

zurückzum Seitenanfang

D

DAB

DAB: Digital Audio Broadcast
DAB ist ein standardisiertes Übertragungsverfahren für den Empfang von digitalem Hörrundfunk in stationären, portablen und mobilen Radiogeräten. DAB wurde für den Einsatz in Frequenzbereichen über 30 MHz entwickelt. Typisch erfolgt die Aussendung im VHF-Band III (174 - 230 MHz) oder im L-Band (1452 – 1492 MHz). Mit DAB können Hörfunkprogramme in CD-ähnlicher Qualität sowie Zusatz- und Multimediadienste übertragen werden. Mit der Weiterentwicklung DMB können auch Fernsehdienste für Kleinempfänger verbreitet werden.

zurückzum Seitenanfang

DFS

DFS: Dynamic Frequency Selection
Verfahren zur automatischen Kanalwahl für W-LAN im 5-GHz-Bereich. Es wird eine freie Frequenz gewählt, um Radar-Störungen zu vermeiden. Das Verfahren wird vielfach als Beispiel für eine zusätzliche Nutzung einer bereits genutzten Frequenz genannt.

zurückzum Seitenanfang

DLNA

DLNA: Digital Living Network Alliance
Die DLNA ist ein Zusammenschluss vieler Unternehmen, welche im digitalen Heimnetzwerkbereich tätig sind. Dazu zählen unter anderem Philips, Sony, Samsung, Sharp, Microsoft, IBM und HP. Ziel des Konsortiums ist eine möglichst enge Standardisierung von Komponenten im Heimnetzwerk zur Garantie einer möglichst hohen Kompatibilität der Komponenten.

Durch die DLNA werden genaue Richtlinien bezüglich der Anforderungen und der Interoperabilität definiert. Das Konsortium macht sich bereits existierende Technologien wie IP, XML und UPnP zu Nutze um eine schnelle Marktreife der zu entwickelnden Geräte zu erreichen. In verschiedenen Guidelines werden Regeln für bestimmte Gerätetypen definiert, die eingehalten werden müssen um eine Zertifizierung zu erhalten. Die Regeln stellen dabei einen Minimalstandard dar, den ein Gerät mindestens unterstützen muss um mit anderen zu kommunizieren. Darüber ermöglichen herstellerspezifische Erweiterungen eine Diversifizierung und Individualisierung der Produkte. Auch Themen wie Digital Rights Management und das Live-Streaming von Rundfunksignalen sind Bestandteil im aktuellen Standardisierungsprozess.

zurückzum Seitenanfang

DMB

DMB: Digital Multimedia Broadcast
DMB ist eine Erweiterung des DAB-Standards und setzt vollständig auf dem DAB-Übertragungsverfahren auf. DAB-Radio wird um Videodienste im MPEG-4-Standard und zusätzlichem Fehlerschutz komplettiert. DMB spezifiziert einen Videodienst als DAB-Dienst. Systemaspekte wie Electronic Programme Guide (EPG) oder andere Datendienste greifen auf die bei World-DMB entwickelten Standards zurück.

zurückzum Seitenanfang

Dolby Digital

Streamingformat von den Dolby Labs für AC-3-kodierte Audiodaten (Unter AC-3 versteht man das Codierverfahren, das mehrkanalfähig ist).

Bekannt sind Dolby Digital 2.0 für Stereoton und Dolby Digital 5.1 für fünf Lautsprecher und einen niederfrequenten Effektkanal (Low Frequency Effect Channel). Dolby Digital wird in zahlreichen Kinos verwendet und entwickelte sich auch zum populärsten Tonformat der DVD-Video.

Seit ca. fünf Jahren wird Dolby Digital auch für die Verbreitung von 5.1 Surround sowohl für den digitalen Hörfunk, als auch für das digitale Fernsehen verwendet. Dolby Digital arbeitet mit 5+1 Kanälen: vorne links, vorne rechts, vorne mitte, hinten links, hinten rechts und LFE. Die fünf Hauptkanäle sind völlig separat und mit voller Audiobandbreite im Dolby Digital Format gespeichert. Durch die Datenreduktion wird die Datenrate für ein 5.1 Surroundsignal auf 384 – 448 kBit/s - für alle Kanäle zusammen - begrenzt. Der in Dolby Digital encodierte Datenstrom muss entweder vom DVD-Player oder vom A/V-Verstärker decodiert werden. In den DVB-Set-Top-Boxen ist üblicherweise kein Dekoder, zumindest nicht für 5.1 Surround integriert. Aktuelle Soundkarten und Player im PC unterstützen ebenfalls entweder die Decodierung im Rechner oder die Ausgabe des Datenstroms zur externen Dekodierung. Beim Kinofilm beträgt die Datenrate bei 5.1 Surround meist 320 kbit/s.

zurückzum Seitenanfang

Dolby E

Bei Dolby E handelt es sich um ein von den Dolby Labs entwickeltes professionelles Distributionsverfahren für Mehrkanalton, mit dem 5.1 Surroundsound zusammen mit dem zugehörigen Stereomix innerhalb der Rundfunkanstalten bis hin zum Playout verteilt werden kann.

Mit Dolby E können bis zu acht diskrete Tonkanäle einschließlich individueller Metadaten für jedes der Tonprogramme in einer bereits bestehenden Infrastruktur für digital Stereo über zwei AES3-Kanäle verteilt oder auf zwei Tonspuren eines digitalen Videorecorders aufgezeichnet werden. Dabei werden alle acht Tonkanäle einschließlich der Metadaten mit der üblichen Datenrate von 1,92 Mbit/s (entspricht 20 Bit Wortbreite und 48 kHz Abtastrate) codiert. Alle Audiokanäle können hierbei eine Bandbreite von 20 kHz und eine Dynamik von bis zu 110 dB aufweisen. Steht nur eine Wortbreite von 16 Bit zur Verfügung, können im Dolby E-Format sechs Audiokanäle transportiert bzw. gespeichert werden. Dolby E-codierte Tonsignale eignen sich im Zusammenhang mit Video für die Nachbearbeitung, da die Rahmenlänge eines Dolby E-Rahmens genau der Dauer eines Videoframes entspricht. Die Verzögerungszeit für die Encodierung bzw. Decodierung entspricht ebenfalls der Dauer eines Videoframes.

zurückzum Seitenanfang

DRM

DRM: Digital Radio Mondiale
DRM ist ein digitales Audio-Übertragungsverfahren, das langfristig die analogen Kurz-, Mittel- und Langwellenaussendungen ersetzen soll. Die Modulation erfolgt mit OFDM (Orthogonal Frequency Division Multiplex) mit insgesamt 114 Einzelträgern. Um die Übertragungssicherheit zu erhöhen kommt ein Interleaving zum Einsatz. Die Nettodatenrate hängt vom gewählten Fehlerschutz ab und liegt zwischen 8 kbit/s und 20 kbit/s. Für die Audiocodierung stehen verschiedene MPEG-4-Varianten zur Verfügung. Je nach Anwendungsfall (Sprache, Musik, Mono, Stereo, gewünschte Qualität) kann man zwischen AAC (Advanced Audio Coding), CELP (Code Excited Linear Prediction) oder HVXC (Harmonic Vector Excitation Coding) wählen. 

zurückzum Seitenanfang

DRM

DRM: Digital Rights Management
DRM setzt auf Conditional Access Systemen auf, die den Zugriff auf ausgestrahlte Programmkanäle gezielt für die Nutzer regeln können. DRM-Verfahren gehen aber weit darüber hinaus. Sie verwalten die Nutzungsrechte an Inhalten, unabhängig ob diese übertragen, gespeichert oder kopiert wurden.
Dazu bedienen sich DRM-Verfahren beschreibender Daten, die als digitale Signatur, unverletzbar an den Content gebunden werden. Die Metadaten enthalten Informationen zur Nutzungsdauer, Nutzungsumgebung,  Nutzungsformen und umfangreiche Beschreibungen und Klassifizierungen zu den Inhalten. DRM-Metadaten werden meist in einer Sprache wie z.B. der eXtensible rights Markup Language (XrML) oder der Open Digital Rights Language (ODRL) beschrieben und zusammen mit den Nutzdaten verschlüsselt übertragen und gespeichert.

zurückzum Seitenanfang

DSL

DSL: Digital Subscriber Line
Aus dem Englischen übersetzt bedeutet DSL Digitale Teilnehmeranschlussleitung. Damit bezeichnet man die Technik, Datenströme mit hohen Bandbreiten über die Telefonleitung zum Endkunden zu übertragen. DSL nutzt die gleiche Zwei- oder Vierdrahtleitung wie der analoge- oder ISDN-Anschluss. Die Übertragung findet in Frequenzbändern oberhalb der ISDN-Übertragung statt und schließt somit eine gegenseitige Störung aus. Entsprechend dem Surfverhalten der Endkunden ist die am meisten verbreitete DSL-Variante die asynchrone (ADSL genannt). Die Uploadrate (vom Endkunden zum Provider hin) beträgt meist nur ein Zehntel der Downloadrate. Die Ende der 1990-er Jahre eingeführte ADSL-Technik erlaubte Datenraten bis maximal 8 Mbit/s (angeboten wurden 768 kbit/s), die derzeit aktuelle Weiterentwicklung ADSL2+ erlaubt Downloadraten bis 16 Mbit/s und die neu eingeführte VDSL-Technik (Very High Data Rate Digital Subscriber Line) wird Datenraten von bis zu 50 Mbit/s zum Endteilnehmer sowie 10 Mbit/s zum Provider hin erlauben.

zurückzum Seitenanfang

DSMCC Objekt Karussell

DSMCC Objekt Karussell: Digital Storage Media Control and Command
Die Spezifikation DSMCC (ISO 13818-6) gehört zur Familie der MPEG 2-Standards und definiert u.a. Kommunikationsprotokolle, welche bei Video On Demand-Fernsehen (VoD) die Video-Server des Anbieters steuern. Ein Teil dieses umfangreichen Standards beschreibt das DSMCC Objekt Karussell. Dieses überträgt Software-Updates für DVB-Set-Top-Boxen oder interaktive Anwendungen, die mit der Multimedia Home Platform (MHP) genutzt werden können. Das DSMCC Objekt Karussell bietet vereinfacht dargestellt die Möglichkeit, dynamisch veränderliche Dateien und ganze Verzeichnisbäume als Objekte über einen unidirektionalen Rundfunkkanal, ohne Rückkanal, zu übertragen. Dazu werden diese Objekte bei der Übertragung zyklisch wiederholt. Änderungen einzelner Objekte sind durch eine spezielle Signalisierung effizient möglich. Zusätzlich kann über sogenannte Stream Events die Synchronisation interaktiver Anwendungen mit Audio- und Videoströmen erreicht werden.

zurückzum Seitenanfang

DTCP

DTCP: Digital Transmission Content Protection over Internet Protocol
DTCP verhindert die unzulässige Verbreitung von Medieninhalten in digitalen Heimnetzwerken. Das darin enthaltene “Authentication scheme“ identifiziert die angeschlossenen Geräte des Nutzers. DTCP wird auch als  “Link Protection System“ bezeichnet. Im Gegensatz zu DRM erfolgt aber keine weitergehende Beschreibung der Rechte für die jeweiligen Inhalte. Obligatorisch ist bei DTCP der Einsatz von kryptographischen CA-Verfahren und damit die Verschlüsselung der Inhalte. Selbst wenn der Datenstrom durch Manipulation am Endgerät entschlüsselt wird, erlaubt es ein “Key-Revocation-Mechanismus“ bei DTCP das Endgerät auszusperren, so dass kein ständiger Datenfluss mehr möglich ist. Geplant ist der Einsatz von DTCP bei WiMAC (Wireless Media and Control at Home) und bei DLNA (Digital Living Network Alliance). Realisiert ist der Einsatz von DTCP bereits im Windows XP Media Center von Microsoft.

zurückzum Seitenanfang

DTM

DTM: Dynamic Synchronous Transfer Mode
Der Dynamische Synchrone Transfer Mode (DTM) ist eine bei ETSI standardisierte Netzwerktechnologie, die nach dem Zeitmultiplexverfahren arbeitet. Der Übertragungskanal ist dabei in Zeitschlitze mit jeweils 512 kbit/s unterteilt und jeder Verbindung werden N dieser Zeitschlitze fest zugeordnet (synchrones Verfahren). Dadurch steht jeder Anwendung eine feste Bandbreite zur Verfügung, was eine perfekte Dienstgüte erlaubt. Daher kommt dieses Verfahren vor allem bei der Übertragung von professionellen Rundfunksignalen zum Einsatz. Einziger Hersteller ist derzeit die schwedische Firma Net Insight.

zurückzum Seitenanfang

DTS

DTS: Digital Theater Systems
Codec und Dateiformat wurden in Konkurrenz zu Dolby Digital/AC-3 vom gleichnamigen Unternehmen im Jahr 1993 zum ersten Mal der Öffentlichkeit vorgestellt. Einer der ersten prominenten Blockbuster mit einer DTS-Tonspur war 'Jurassic Park'.

DTS zeichnet sich meist durch höhere Datenrate als Dolby Digital und dadurch durch bessere Audio-Qualität aus und ist daher besonders bei Home Theater Enthusiasten beliebt. Die Datenrate beträgt bei 5.1 Kanälen meist 1,5 Mbit/s. DTS ist ein hochqualitatives Mehrkanaltonsystem mit hohem Dynamikumfang und breitem Frequenzspektrum aus sechs Kanälen, wie es häufig in Kinos verwendet wird. Die Datenrate fällt im Vergleich zu Dolby Digital und MPEG-2 deutlich höher aus und gewährleistet so die höchste Surround-Wiedergabequalität für den Heimbereich. DTS ist auf DVDs als Ergänzung zu anderen Audio-Systemen erlaubt und heutzutage praktisch in den meisten Fällen auf DVD-Videos vorhanden.

zurückzum Seitenanfang

DVB

DVB: Digital Video Broadcast
DVB ist das standardisierte Übertragungsverfahren für digitales Fernsehen.

zurückzum Seitenanfang

DVB-C

DVB-C: Digital Video Broadcast via Cable
DVB-C bezeichnet das von DVB (Digital Video Broadcasting) für die Kabelübertragung entwickelte digitale Modulationsverfahren.

zurückzum Seitenanfang

DVB-H

DVB-H: Digital Video Broadcast to Handheld
DVB H ist eine Erweiterung des DVB T-Standards und setzt vollständig auf dem DVB T-Übertragungsverfahren auf. DVB-H erweitert DVB T-Fernsehen mit IP-Diensten (Internet Protokoll) und ermöglicht gegenüber DVB-T Stromsparmaßnahmen für das mobile Empfangsgerät.

zurückzum Seitenanfang

DVB-IP(TV)

DVB-IP(TV) ist ein von DVB/ETSI verabschiedeter Standard für IPTV. Er verbindet bekannte Komponenten aus dem für Kabel, Satellit und Terrestrik eingeführten DVB-System mit spezifischen Anforderungen, die sich aus IP-Netzen ergeben. In Deutschland werden die TV- und Hörfunkprogramme von ARD und ZDF in IPTV-Netzen kompatibel mit dem DVB-IPTV-Standard verbreitet (gelegentlich wird auch das Kürzel DVB-IP verwendet).

zurückzum Seitenanfang

DVB-S

DVB-S: Digital Video Broadcast via Satellite
DVB-S bezeichnet das von DVB (Digital Video Broadcasting) für die Satellitenübertragung entwickelte digitale Modulationsverfahren.

zurückzum Seitenanfang

DVB-SH

DVB-SH: Satellite Services to Handheld Devices

DVB-SH ist ein Verfahren zur Übertragung von Rundfunksignalen über Satelliten auf mobile Endgeräte. Die im Januar 2007 verabschiedete Spezifikation beschreibt eine DVB-H-kompatible Aussendung von Audio-, Video- und Datendiensten auf der physikalischen Ebene, basierend auf dem IP-Datacast-Verfahren in Frequenzbändern unterhalb 3 GHz. Für den Verlust der Sichtverbindung sind terrestrische Repeater vorgesehen. Für einen sicheren Datentransfer sorgen flexible Interleavertechnologien, Turbocodes und Foreward Error Correction (FEC).

zurückzum Seitenanfang

DVB-T

DVB-T: Digital Video Broadcast Terrestrial
Dieses digitale Video-Übertragungsverfahren wurde im Jahre 1995 von der DVB-Project Group entwickelt und wurde in den letzten Jahren erfolgreich in vielen Ländern Europas eingeführt. Schrittweise wird mit diesem Verfahren das terrestrische Analogfernsehen abgelöst. Der Hauptvorteil von DVB-T gegenüber dem analogen Fernsehen ist die effektivere Ausnutzung des Frequenzspektrums. Unter Ausnutzung der Mehrwegefähigkeit im SFN (Single Frequency Network) kann ein Gewinn um den Faktor 4-8 erzielt werden.

Ein weiterer Vorteil des DVB-T-Systems ist die Flexibilität in der Parametereinstellung. Beispielsweise kann man die Videoqualität erhöhen, wenn man sich mit weniger Programmen zufrieden gibt. Weiterhin könnte man den Senderabstand verringern, was zu einem besseren Empfang bei hohen Geschwindigkeiten führen würde.  

zurückzum Seitenanfang

DVB-T2

DVB-T2: Digital Video Broadcast Terrestrial 2

Seit Frühjahr 2007 erstellt das DVB-Projekt die Anforderungen für ein digitales terrestrisches Fernsehübertragungssystem der nächsten Generation. DVB-T2 ist als Weiterentwicklung von DVB-T geplant. Wesentliche Entscheidungen, wie die Auswahl des Codierungs- und Modulationsverfahren, stehen noch aus. Wahrscheinlich wird sich bei der Audio-/Videocodierung das MPEG-4-Verfahren durchsetzen. Das Verfahren wird zur Übertragung von HDTV im Satellitenbereich und für Bewegtbilder bei Handy-TV eingesetzt. Das MPEG-4-Verfahren erlaubt eine Steigerung um den Faktor zwei im Vergleich zu den herkömmlichen Verfahren. Auch beim Modulationsverfahren sind leistungsfähigere Methoden geplant, diese stützen sich darauf, dass mehr Informationen pro Zeit ungestört übertragen werden.

zurückzum Seitenanfang

DVI

DVI: Digital Visual Interface
DVI definiert eine digitale Videoschnittstelle, ursprünglich zur Verbindung von PCs mit PC-Displays. Die digitalen Videodaten werden dabei über drei oder sechs serielle digitale Kanäle übertragen. Diese Schnittstelle ist bidirektional: das empfangende Display kann der Signalquelle seine Auflösung mitteilen, sodass die Videoauflösung immer bereits in der Signalquelle umgerechnet oder angepasst werden kann. Der DVI-Standard ist die Grundlage für die HDMI-Schnitstelle im Consumer-Bereich.

zurückzum Seitenanfang

E

EMV

EMV: Elektromagnetische Verträglichkeit

Die EMV beschreibt die Eigenschaften von Geräten und ortsfesten Anlagen hinsichtlich der Aussendung von Störsignalen. Da in jedem eingeschalteten elektrischen oder elektronischen Gerät Ströme fließen, die elektrische oder magnetische Felder erzeugen, kommt es bisweilen zu Störungen des Rundfunkempfangs. Das heißt, ein nicht ordnungsgemäß abgeschirmtes Gerät wirkt wie eine Sendeanlage. Um dies zu verhindern, gibt es genaue Vorschriften, welche maximalen Feldstärken ein elektrisches Gerät erzeugen darf. Die Einhaltung dieser Grenzwerte wird durch das CE-Zeichen bescheinigt. Geräte, die dieses Zeichen nicht haben oder Anlagen, die nicht ordnungsgemäß installiert worden sind, können als Störer wirken. Der Hersteller solcher Geräte oder der Betreiber von solchen Anlagen wird dann (z. B. von der Bundesnetzagentur) aufgefordert wirksame Entstörmaßnahmen vorzusehen.

zurückzum Seitenanfang

EMVU

EMVU: Elektromagnetische Umweltverträglichkeit
Im Gegensatz zur EMV befasst sich die EMVU nicht mit der Störwirkung von elektrischen Geräten, sondern mit der Auswirkung von Störstrahlungen auf den menschlichen Körper. Um die Gesundheit von Personen, die sich in elektromagnetischen Feldern aufhalten, zu schützen, wurden Grenzwerte für die zulässigen elektrischen oder magnetischen Feldstärken festgelegt. Mögliche Strahlungsquellen, die einen biophysikalischen Einfluss auf Personen haben, wären beispielsweise Mobilfunkgeräte, Radaranlagen, Mikrowellengeräte oder auch leistungsstarke Rundfunksender. Hier muss der Betreiber oder der Hersteller nachweisen, dass unter Einhaltung der Vorschriften eine Personengefährdung ausgeschlossen ist. 

zurückzum Seitenanfang

EON

EON: Enhanced Other Network Information
Das Feature EON enthält RDS-Informationen zur Vernetzung von Radioprogrammen einer Rundfunkanstalt bzw. eines Anbieters. Am häufigsten wird EON in Verbindung mit der Verkehrsdurchsagekennung TA eingesetzt.

zurückzum Seitenanfang

EPG

EPG: Electronic Program Guide
Der EPG ist eine elektronische Programmzeitung, welche gemeinsam mit dem Fernseh- oder Hörfunkprogramm ausgesendet wird. Der EPG enthält eine Programmvorschau mit Detailinformationen zu den einzelnen Sendungen und erleichtert die Aufzeichnung in einem Personal Video Recorder (PVR), da die gewünschte Sendung per Knopfdruck auf der Fernbedienung ausgewählt werden kann.

zurückzum Seitenanfang

ESG

ESG: Electronic Service Guide
Am einfachsten ist der Begriff ESG mit elektronischer Programmzeitschrift zu umschreiben. Tatsächlich handelt es sich um Zusatzdaten, welche zusammen mit den Audio- und Videoinformationen zum Zuschauer oder der Zuschauerin gelangen. Diese digitalen Daten sind so aufbereitet und strukturiert, dass sie im Endgerät dem jeweiligen Programmbeitrag zugeordnet werden können. Somit sind Informationen über die Sendezeit, die Dauer, den Inhalt, den Titel, die Seriennummer, die Schauspieler, das Genre usw. verfügbar. Meist beinhalten solche ESGs eine siebentägige Programmvorschau aller in einem Bouquet enthaltenen Sendungen. Der ESG findet sich in DVB-S, DVB-T, DVB-C sowie bei DVB-H.

zurückzum Seitenanfang

F

Fiber Channel

Das durch ANSI standardisierte Fiber Channel (FC) Protokoll stellt eine eigene Netzwerk-Technik dar. Über die physikalische FC-Schicht (FC-PH) ist es prinzipiell möglich, diverse Kommunikations-Protokolle wie AAL5 (ATM), IP oder SCSI einzusetzen. In der Regel wird der hochperformante FC in der Übertragung von Daten im Bereich von Hochleistungs-Speichern in Kombination mit dem SCSI-Protokoll eingesetzt. Hauptsächlich wird in der FC-Topologie zwischen der Ring- (Loop-) und der Switched-Struktur (Fabric) unterschieden. Durch die strikte Flowcontrol bei Datenraten bis zu 4 Gb/s bzw. nun auch 10 Gb/s stellt ein FC-Netzwerk eine sehr leistungsfähige und verlässliche wenn auch zu z.B. Ethernet/IP eine vergleichsweise kostenintensive Lösung dar.

zurückzum Seitenanfang

FIC

FIC: Fast Information Channel
Der FIC ist ein Steuerkanal bei DAB, welcher alle Organisationsdaten (Multiplex Konfiguration Information) des Datenmultiplexes sowie Abstimminformationen und kodierte TMC-Verkehrsinformationen enthält. Der FIC wird im Gegensatz zum Main Service Container (MSC), welcher alle Ton- und Zusatzdaten transportiert, zeitlich nicht verschachtelt. Auf diese Weise können die Daten im FIC schnell im Empfänger ausgewertet werden. Die Übertragungssicherheit wird im FIC durch einen höheren Fehlerschutz gewährleistet. Die Datenrate des FIC beträgt in den DAB-Modi I und II 32 kbit/s.

zurückzum Seitenanfang

FIG

FIG: Fast Information Group
Bei DAB werden Organisationsdaten (Multiplex Konfiguration Information), Serviceinformationen und kodierte TMC-Verkehrsinformationen als FIG im FIC übertragen. Jede Informationgruppe, z.B. die Serviceinformationen, sind einer FIG zugeordnet. Innerhalb dieser Gruppe verweist eine sogenannte Erweiterung (Extensions) auf die Informationsart. Beispielsweise wird der Programmname (Programme Service Label) in der FIG 1 und dort in der Erweiterung 1 (kurz: FIG 1/1) übertragen.

zurückzum Seitenanfang

FM

FM: Frequency Modulation
Bei der Frequenzmodulation wird die Frequenz des Trägersignals im Rhythmus des Modulationssignals verändert. Die Abweichung von der Trägerfrequenz wird als Frequenzhub bezeichnet. Im UKW-Bereich des Rundfunks (87,5–108 MHz) beträgt der Frequenzhub 75 kHz.

zurückzum Seitenanfang

FRANSY

FRANSY: FRequenz-ANalyse-SYstem
FRANSY ist ein Softwaretool zur Planung von terrestrischen Rundfunknetzen (UKW-Hörfunk, T-DAB, analoges TV, DVB-T) mit zahlreichen Funktionen für , Verträglichkeitsanalyse, Geländeprofil, Delayoptimierung, Demographieanalyse, Visualisierung und mit eigenem integrierten GIS.

zurückzum Seitenanfang

G

Gigabit Ethernet

Gigabit Ethernet ist die dominante Technik in lokalen Netzen geworden. Klassisches Ethernet ist ein „shared“ Medium, in dem sich mehrere Anwender die verfügbare Bandbreite teilen. Die Nutzdaten werden in so genannten „Frames“ von bis zu 1500 Bytes übertragen. Erst später wurde mit der Möglichkeit, geswitches Ethernet zu nutzen, die Möglichkeit eröffnet, Ethernet-Verbindungen dedizierter zu nutzen. Allerdings sind auch heute die vorhandenen QoS-Mechanismen noch rudimentär.

zurückzum Seitenanfang

GIS

GIS: GeoInformationsSystem
Ein geographisches Informationssystem ist ein rechnergestütztes Informationssystem, das aus Hardware, Software, Daten und Anwendungen besteht. Die Daten befinden sich meist in einer Datenbank in Form von (Spezial-)Landkarten mit den dazugegehörigen statistischen Angaben. Mit einem GIS können landkartenbezogene Daten digital erfasst und redigiert, gespeichert und reorganisiert, modelliert und analysiert sowie alphanumerisch und grafisch präsentiert werden. (wikipedia.org/wiki/Geoinformationssystem)

zurückzum Seitenanfang

GPRS

GPRS: General Packet Radio Service
Seit Mitte 2000 wurde der GSM-Standard um den paketorientierten Dienst GPRS (General Packet Radio Service) erweitert. GPRS erlaubt es, Übertragungskanäle effizienter zu nutzen, da pro Übertragungskanal mehrere User ihre Daten als Pakete über die Luftschnittstelle übertragen können. Jedes Paket bekommt ein eigenes Adressfeld, wodurch im Netz die Einzelpakete richtig weitergeleitet werden können. Weiterhin ist mit GPRS auch Kanalbündelung möglich so dass bis zu vier Kanäle gebündelt werden können und so eine Datenrate von bis zu 53,6 kbit/s bei Codecschema 2 theoretisch erreicht werden kann.

zurückzum Seitenanfang

H

H.264

H.264, auch MPEG-4/AVC (Advanced Video Coding) genannt, ist ein Videokompressionsverfahren, das gegenüber etablierten Verfahren, wie MPEG-2, eine um den Faktor 2-3 erhöhte Kompression ermöglicht. H.264 wird für neue HDTV-Dienste, für Internet-Angebote, IPTV, Handy-TV und in einigen DVB-T-Anwendungen eingesetzt.

zurückzum Seitenanfang

HbbTV

HbbTV: Hybrid Broadcast Broadband TV

HbbTV ist eine neue pan-europäische Initiative, die dem Rundfunk, alternativ zu proprietären Techniken, ein offenes technisches System bietet, um Mehrwert- und Abrufangebote für den Konsumenten bereitzustellen. Das breite Konsortium setzt sich zusammen aus den Rundfunksendern Canal+, France Television und TF1, der deutschen Forschungseinrichtung Institut für Rundfunktechnik, dem Satellitenbetreiber SES ASTRA sowie den Softwareunternehmen ANT und OpenTV. Eine Liste aller Firmen sowie der Gerätehersteller findet sich im Internetangebot unter www.hbbtv.org. Die Firmen stimmen darüber ein, eine durchgängige Kompatibilität von Produkten und Lösungen in einem schnell wachsenden Markt von hybriden Geräten in Europa sicherzustellen.

 

zurückzum Seitenanfang

HDCP

HDCP: High-bandwith Digital Content Protection
HDCP ist ein Verschlüsselungsverfahren, das in Verbindung mit der DVI- oder HDMI-Schnittstelle eingesetzt werden kann. Auf diese Weise soll eine unerlaubte Aufzeichnung von dekomprimierten Videosignalen unmittelbar vor der Wiedergabe auf dem Display verhindert werden.

zurückzum Seitenanfang

HDMI

HDMI: High Definition Multimedia Interface
Die HDMI-Schnittstelle hat ihren Ursprung in der der DVI-Schnittstelle aus der PC-Technik. Sie baut auf dieser auf und erlaubt neben der Übertragung von RGB-Signalen auch die Übertragung von YUV-Komponenten, sowie mehrerer Audiokanäle in komprimierter oder unkomprimierter Form. HDMI wird in Verbindung mit HDCP von der Hdready-Spezifikation gefordert.

zurückzum Seitenanfang

HDready

HDready: High Definition ready
HDready ist ein Label, das von dem europäischen Industrieverband EICTA entwickelt wurde, um HDTV-fähige Displays für den Konsumenten eindeutig zu kennzeichnen. HDready verlangt für Displays eine minimale Auflöung von 720 Zeilen, die Wiedergabemöglichkeit verschiedener HDTV-Formate, und die Implementierung der digitalen HDMI-Schnittstelle zusammen mit der Verschlüsselung HDCP.

zurückzum Seitenanfang

HDTV

HDTV: High Definition Television
HDTV ist ein Überbegriff für hochauflösendes Fernsehen. Ziel von HDTV ist es, dass der Zuschauer nur einen Betrachtungsabstand von der dreifachen Bildhöhe einnimmt und dabei noch keine Zeilen- oder Bildpunktstrukturen am Bildschirm erkennen kann. Das konventionelle Fernsehen ist dagegen für einen Betrachtungsabstand von etwa der 6-fachen Bildhöhe ausgelegt.

zurückzum Seitenanfang

HE AAC

HE AAC und HE AAC v2: High Efficiency Advanced Audio Coding
MPEG-4 High Efficiency Advanced Audio Coding (kurz HE-AAC), auch AAC+ v1 genannt, ist ein sehr effizienter lizenzpflichtiger Audio-Codec. HE-AAC basiert auf MPEG-4 AAC, wurde jedoch um eine Technik namens Spectral Band Replication (SBR) erweitert. Diese Technik kam bereits beim mp3PRO Codec zum Einsatz. Dank SBR liefert HE-AAC vor allem bei niedrigen Bitraten (96 kbit/s und niedriger) eine bessere Klangqualität als AAC oder andere vergleichbare Audio-Codecs. Niedrige Bitraten, wie sie etwa beim Live-Streaming oder im Mobilfunk verwendet werden, sind daher der Haupteinsatzbereich von HE-AAC. Bei höheren Bitraten wird wegen der besseren Qualität in diesem Bereich weiterhin AAC im Main bzw. Low Complexity (LC) Profil benutzt. HE-AAC unterstützt bis zu 48 Ton-Kanäle und DRM. HE-AAC kann mit konstanter Bitrate oder mit variabler Bitrate verwendet werden. HE-AAC ist eingeschränkt abwärtskompatibel zu AAC. Das bedeutet, dass alle AAC-Dekoder auch HE-AAC-Streams dekodieren können. Ohne SBR-Tools allerdings nur mit halbierter Samplerate. Da SBR hohe Frequenzen nur synthetisch erzeugt, kann mit HE-AAC im Gegensatz zu AAC (Main- oder LC-Profil) keine Transparenz erreicht werden.

Neben AAC+ v1 (HE-AAC) gibt es mittlerweile auch eine neue Version des Codecs, die als AAC+ v2 oder HE-AAC v2 bezeichnet wird. Dieses Codec verwendet im Gegensatz zu HE-AAC v1 bei der Komprimierung von Stereo-Signalen eine Technik namens Parametric Stereo (PS). Dadurch können Stereo-Signale nochmals wesentlich effektiver komprimiert werden, was die Klangqualität bei sehr niedrigen Bitraten weiter verbessert. Für reine Mono-Signale kommt PS nicht zum Einsatz. Auch HE-AAC v2 ist abwärtskompatibel. Dekoder ohne spezielle Unterstützung für PS können HE-AAC v2 Datenströme allerdings nur in Mono dekodieren.

zurückzum Seitenanfang

HRTF-invers-Filterung

Ein perfekter Kopfhörer gewährleistet zwischen Kopfhörereingang und Trommelfell die Übertragungsfunktion 1. Dies ist die Voraussetzung für einwandfreie Wiedergabe von binauralen Signalen. Will man für Lautsprecherwiedergabe diese Voraussetzung erfüllen, so müssen die für die Lautsprecherpositionen wirksamen Außenohrübertragungsfunktionen invers gefiltert werden. Die Filterung wird auch als Übersprechkompensation (engl.: crosstalk cancellation – XTC) bezeichnet.

zurückzum Seitenanfang

HSDPA

HSPA: High Speed Packet Access 
HSPA wird in Downlink-Richtung als HSDPA und in Uplink-Richtung als HSUPA bezeichnet. Beide basieren wie der Mobilfunkstandard UMTS auf dem CDMA-Verfahren. Die maximal erreichbaren Datenraten im Downlink liegen bei optimalen Empfangsbedingungen bei 14 Mbit/s (16-QAM) und bei schlechteren Empfangsbedingungen bei 3,5 Mbit/s (QPSK). Im laufenden Betrieb teilen sich allerdings eine dynamisch schwankende Zahl an Endgeräten die Frequenzressourcen, sodass eine Garantie über Verfügbarkeit und Qualität des Empfangssignals nicht immer möglich ist.

zurückzum Seitenanfang

HYBNET®

HYBNET® steht für HYBbrides diensteintegrierendes BreitbandübertragungsNETz der ARD. HYBNET® ist das Produktionsnetz der ARD und bündelt alle Rundfunkdienste für das Fernsehen, den Hörfunk, das Daten-CN und die Sprachekommunikation (Kommando, Telefon) in einem Netz. HYBNET® verbindet alle Hauptstandorte der ARD (Landesrundfunkanstalten) in einem Glasfaser-basierenden SDH-Ring mit einer Datenrate von 2,5 Gbit/s (STM-16). HYBNET®  nahm im Jahr 2002 seinen Betrieb auf.

zurückzum Seitenanfang

I

IP

IP: Internet Protocol
IP wurde ursprünglich rein zum verbindungslosen Austausch von Daten-Paketen entwickelt. In „Zusammenarbeit“ mit TCP konnte eine gesicherte Übertragung erreicht werden. Da keine ursprünglichen QoS-Konzepte in IP vorhanden waren, wurden unterstützende Protokolle wie zum Beispiel DiffServ entwickelt, mit denen IP-Pakete in bestimmte Klassen unterteilt werden können, die mit unterschiedlicher Priorität in den Netzknoten abgearbeitet werden. Bezüglich der Dienstgüte für Echtzeitverkehr ist IP immer noch sehr stark abhängig von der darunter liegenden Transportschicht. IP selbst bietet keine QoS, sondern nur Class of Service (CoS).

zurückzum Seitenanfang

IPTV

IPTV: Internet Protocol Television
IPTV bezeichnet generell die Übertragung von TV-Programmen über IP-Netze. Die nötige Qualität wird dabei heute nur von DSL-Netzen mit spezieller Signalzuführung erreicht. IPTV wird oft mit Internet-TV (Video-Streaming über das etablierte Internet) gleichgesetzt, das jedoch heute nicht nicht die Qualitätsanforderungen für einen vollwertigen TV-Dienst erfüllt.

zurückzum Seitenanfang

J

JSR272

JSR272: Java Specification Request 272
Ziel des JSR272 ist die Spezifikation eines optionalen APIs, das als Java-Applikation den Empfang, die Darstellung und die Interaktion mit Rundfunkinhalten auf mobilen Endgeräten ermöglicht.  JSR272 ist eine Initiative der Firmen Nokia, Motorola, Vodafone und Siemens, mittlerweile umfasst die Experts Group über 20 verschiedene Firmen aus dem Umfeld der Mobilfunkbetreiber und Endgerätehersteller. Specification Lead sind Mitarbeiter der Firmen Nokia und Motorola.

zurückzum Seitenanfang

K

KEM

KEM: Kardioid-Ebenen-Mikrofon
Das Kardioid-Ebenen-Mikrofon ist ein Mehrkapselsystem mit einer speziellen Richtcharakteristik, die nicht rotationssymmetrisch zur Bezugsachse ist. Es weist in der Horizontalebene die Eigenschaften eines Nierenmikrofons und in der Vertikalebene die Eigenschaften eines Richtmikrofons mit einem schmalen Öffnungswinkel (von z.B. 30 Grad) auf. Neben der Verwendung des KEM bei Rundfunkproduktionen und Videokonferenzen wird es in der Beschallung sowie bei einigen Parlamenten (auch im Deutschen Bundestag) am Rednerpult eingesetzt.

zurückzum Seitenanfang

L

LAN

LAN: Local Area Network
Als Local Area Network bezeichnet man Rechnernetze mit einer räumlichen Ausdehnung, die im Bereich eines oder mehrerer Gebäude liegt (z.B Firmenstandorte), aber noch nicht als MAN (Metropolitan Area Network, Citynetz) einzustufen ist. LANs können mit unterschiedlichsten Netztechniken aufgebaut sein, sind heutzutage aber im Falle drahtgebundener Netze praktisch ausschließlich mit der Ethernet-Technik realisiert. Wird ein LAN über Funk, also drahtlos, realisiert spricht man von Wireless LAN.

zurückzum Seitenanfang

LASeR

LASeR Lightweight Application Scene Representation
LASeR ist Teil des MPEG-4-Standards (Teil 20) und ist eine Ansammlung von Szenenbeschreibungen und Medien. Medien können Bilder, Video, Audio oder Schriftarten sein. Eine Szenenbeschreibung ist eine Zusammensetzung aus Text, Grafiken, Animationen, Interaktivität und räumliches sowie zeitliches Layout der Medien. Die Objekte werden in LASeR verpackt und zusammen gestreamt (vergleichbar Macromedia Flash im Web). Zielsysteme sind hier jedoch kleine mobile Systeme wie Handys, Smartphones oder PDAs.

LASeR ist kompatibel mit SVGT 1.1 (Scalable Vector Graphics Tiny; Szenenbeschreibung), SMIL (Synchronized Multimedia Integration Language; XML-basierter Standard für audiovisuelle Präsentationen), DOM (Document Object Model; Softwareinterface für die Ansteuerung von XML-Dokumenten), MPEG Bim (Komprimierung der transportierten Szenenbeschreibungen und Medien).

zurückzum Seitenanfang

LBT

LBT: Listen Before Talk
Listen Before Talking (LBT) ist eine elementare Regel von CSMA (Carrier Sense Multiple Access/Mehrfachzugriff). Ein senderwilliges Gerät “hört” das Übertragungsmedium ab. Ist dieses frei, wird mit der Übertragung begonnen.

zurückzum Seitenanfang

M

MBMS

MBMS: Multimedia Broadcast Multicast Service
Dieses Verfahren gehört zur Familie des Mobilfunkstandards UMTS und erlaubt die gleichzeitige Übertragung von Multimediadaten an viele Nutzer. Im Gegensatz zur Punkt-zu-Punkt-Verbindung bei einem Telefongespräch erfolgt bei MBMS die Übertragung von einem Punkt zu einer Gruppe. Der Vorteil gegenüber einem Streamingverfahren liegt in der deutlich geringeren Netzlast, da die Daten nur einmal und zwar zeitgleich an alle übertragen werden. Man unterscheidet zwei Modi: Broadcast-Mode für Free-TV und Multicast-Mode für Pay-TV.

zurückzum Seitenanfang

MDC

MDC: Multiple Description Coding
Multiple Description Coding (MDC) dient dazu, dass man für die Übertragung von digitalen Informationen auch gestörte oder unzuverlässige Übertragungswege nutzen kann. Beispiele für solche Übertragungswege sind Internetverbindungen ohne definierte Dienstgüte (Quality of Service, QoS) und mobile Funkverbindungen. Bei MDC wird den Nutzdaten Redundanz hinzugefügt und es werden mehrere gleichberechtigte Datenströme erzeugt. Außerdem ist, wenn ein (nicht zu großer) Teil der Datenströme unkorrigierbar gestört ist, aus dem Rest immer noch eine wohldefinierte Teilinformation rekonstruierbar. Diese wählt man so, dass sie die wichtigsten Anteile enthält, mit denen der Dienst aufrechterhalten werden kann. Bei einer Videoübertragung kann das zum Beispiel ein stark vereinfachtes Videosignal mit verringerter Bildqualität sein. So ergibt sich eine fehlertolerante Übertragung mit „weichem Ausstiegsverhalten“ (Graceful Degradation).

zurückzum Seitenanfang

MHP

MHP: Multimedia Home Platform
Der Multimedia Home Platform Standard (MHP) wurde vom internationalen DVB-Projekt als Standard verabschiedet und spezifiziert ein API für die Übertragung und Darstellung interaktiver Inhalte im Digitalen Fernsehen auf Basis der Programmiersprache Java. MHP ermöglicht sowohl rein rundfunkbasierte Dienste (Informationsseiten, erweiterter Videotext, Spiele, Programmübersichten, komplexere elektronische Programmführer (EPGs) etc.), als auch interaktive Dienste, die einen zusätzlichen Rückkanal erfordern (beispielsweise Abstimmungen/Quizfragen, Homeshopping-Angebote etc.).

MHP-basierte Anwendungen können über sämtliche, vom DVB-Projekt spezifizierten digitalen Übertragungstechnologien, wie DVB-S, DVB-T, DVB-C, DVB-H, DVB-IPI, übertragen werden. Grundsätzlich ist eine Set-Top-Box (STB) oder ein Fernsehempfänger mit Unterstützung der MHP-Plattform Voraussetzung für die Nutzung von MHP-Angeboten. MHP definiert APIs, die es MHP-basierten Anwendungen erlaubt, unabhängig vom Hersteller eines digitalen TV-Empfängers (Set-Top-Box) sowohl rundfunkbasierte als auch interaktive Dienste zu nutzen. Es umfasst APIs für die Darstellung auf dem Endgerät ebenso wie den Zugriff auf Service Information (SI Daten), den persistenten Speicher, den interaktiven Rückkanal (IDSN, DSL etc.) und vieles mehr.

zurückzum Seitenanfang

MIMO

MIMO: Multiple Input Multiple Output

 Die Schlüsselrolle bei mobilen Funktechniken stellt die nutzbare Bandbreite dar, wobei jedem drahtlosen Service immer nur eine begrenzte Bandbreite für die Informationsübertragung zur Verfügung steht. Nun ist aber Spektrum ein sehr knappes Gut, das es so effizient wie möglich auszunutzen gilt. Die gewünschte Steigerung der Kommunikationsgeschwindigkeit setzt die konsequente Ausnutzung der sich bietenden Freiheitsgrade voraus, was durch unterschiedliche Vielfachzugriffsverfahren erreicht wird. Zur Verfügung stehen die Ressourcen Zeit, Frequenz, Code und Raum. Während die drei erstgenannten Ressourcen in den Verfahren Time Division Multiple Access (TDMA), Frequency Division Multiple Access (FDMA), sowie Code Division Multiple Access (CDMA) – oftmals sogar in Kombination – in bestehenden Systemen ihre Anwendung finden, steht nun erstmals die bisher wenig beachtete Ressource Raum im Vordergrund (Space Division Multiple Access – SDMA). Sie erschließt sich durch die Verwendung mehrerer Antennen – sowohl sender- wie empfangsseitig. An solchen Mehrantennensystemen, die als MIMO-Systeme, bezeichnet werden, wird weltweit seit Jahren intensiv geforscht. „In“ und „out“ beziehen sich immer auf den Übertragungskanal. MI steht somit für mehrere Sendeantennen, MO entsprechend für mehrere Empfangsantennen.

zurückzum Seitenanfang

MOS

MOS: Media Object Server Protocol
Das MOS-Protokoll steuert Geräte der professionellen Rundfunkstudiotechnik, wie etwa Bandmaschinen und Server. Das MOS-Protokoll baut auf der Übertragung von XML-Dokumenten auf.

zurückzum Seitenanfang

MP3

MP3: MPEG 1 Audio Layer III Coding

Hierbei handelt es sich um ein von der MPEG (Moving Picture Experts Group), unter Mitwirkung mehrerer Institute und Firmen, entwickeltes Audiodatenkompressionsverfahren das, als Weiterentwicklung von MPEG 1 Layer II (auch bekannt als MP2 oder MUSICAM) von der ISO standardisiert wurde. Das verlustbehaftete Format zur Audiokomprimierung erfreut sich trotz Konkurrenz zu effizienteren Verfahren wie AAC, WMA und (Ogg) Vorbis nach wie vor großer Beliebtheit.

Neben der moderaten Datenreduktion mag das vor allem an der hohen Kompatibilität zu verschiedensten Playern und Wiedergabegeräten liegen. MP3 erreicht ab 128 kbit/sek gute UKW-Qualität und 192 kbit/sek gelten als CD-äquivalent. Zur Aufnahme von Metadaten wie Titel, Artist, Coverart u.a. in MP3-Dateien wurde weiterhin das ID3-Format spezifiziert.

zurückzum Seitenanfang

MPEG

MPEG: Moving Picture Experts Group
MPEG ist die Abkürzung für „Moving Picture Experts Group“, eine gemeinsame Arbeitsgruppe - Working Group 11 (WG 11), auch Internationales MPEG-Consortium genannt - der Internationalen Standardisierungs-Organisation (ISO) und der International Electrotechnical Commission (IEC). MPEG wurde 1988 von über hundert Unternehmen gegründet, um Vorschläge und Standards in besonderen Expertengruppen (Audio-, Video-, Requirement- oder System-Groups) zu diskutieren und zu erarbeiten. die sich mit der Standardisierung von Videokompression und den dazugehörenden Bereichen, wie Audiodatenkompression oder Containerformaten, beschäftigt.

Umgangssprachlich wird mit "MPEG" meist nicht die Expertengruppe, sondern ein spezieller MPEG-Standard bezeichnet. Derzeit trifft sich die MPEG-Gruppe drei- oder viermal jährlich für jeweils fünf Tage. Etwa 350 Experten aus 200 Firmen und Organisationen aus 20 verschiedenen Ländern nehmen an diesen Treffen, den MPEG-Meetings, teil. Die offizielle Bezeichnung für MPEG ist ISO/IEC JTC1/SC29/WG11 (International Organization for Standardization/International Electrotechnical Commission, Joint Technical Committee 1, Subcommittee 29, Working Group 11). Oftmals wurden auch Ideen der International Telecommunication Union (ITU) aufgegriffen, erweitert und verbessert.

zurückzum Seitenanfang

MPEG-2

MPEG-2 - andere Schreibweise für MPEG2
MPEG-2 bei Audio: MPEG-2 Mehrkanal Audio ist, neben Dolby Digital, eines der digitalen Surround-Systeme, die bei DVD eingesetzt werden. MPEG-2 ist ein System zur datenreduzierten Codierung von bis zu 7+1 Kanälen.
MPEG-2 bei Video: MPEG-2 ist eine erweiterte Version des MPEG-1-Standards bis zu einer Datenrate von 100 MBit/s (Gesamtdatenrate), der bereits für Video-CD-Aufzeichnungen eingesetzt wird. MPEG-2 wurde 1994 als universelles Video-Kompressionssystem für Übertragung, Kommunikation und Speicherung auf optischen Datenträgern eingeführt. MPEG-2 ist ein System zur datenreduzierten Codierung mit hoher Bildqualität und wird bei DVD verwendet.

MPEG-2 bezeichnet das Kompressionsverfahren, das von der Moving Picture Experts Group für den Massenmarkt konzipiert wurde. Die Nummern definieren die Version, wobei die Kompressionsversionen abwärtskompatibel sind. Das Datenkompressions-verfahren MPEG-2 wird in den Bereichen Telekommunikation, Multimedia und Audio eingesetzt.

MPEG-2 Multichannel - Digitales Surround-System innerhalb des MPEG-Standards - Nicht zu verwechseln mit der MPEG-2-Bildcodierung, die bei DVD und digitalem Fernsehen grundsätzlich angewandt wird. Beim Ton wird sich MPEG-2 dagegen nicht mehr durchsetzen können.

MPEG-2-Video ist eine Form der Datenreduktion und Standard für Digital-TV weltweit. MPEG beinhaltet auch die Norm für den Ton, der Fernsehton ist beispielsweise MPEG-1-Audio.

zurückzum Seitenanfang

MPEG-21 (DIA)

MPEG-21 ist ein Framework zur Erstellung und Verteilung von multimedialen Daten und Dienstleistungen und ermöglicht eine plattformübergreifende Erstellung, Verteilung und Darstellung von multimedialen Inhalten inklusive einer Wiederverwendung von solchen Inhalten für verschiedene Anwendungen. Unter MPEG-21 DIA versteht man die Anpassung von Digital Items für verschiedene Einsatzgebiete, wobei sowohl die Bandbreite des Übertragungskanals, als auch die Möglichkeiten des Multimedia-Terminals berücksichtigt werden. Ein Digital Item besteht aus einer Beschreibung seiner Struktur, Metadaten und den eigentlichen Ressourcen. Das Ziel hierbei ist eine Einbettung aller Bestandteile eines Digital Items in eine Datei, wobei als Basis das MPEG-4-Dateiformat dient. Bei der Digital Item Adaptation werden üblicherweise sowohl die Ressourcen, als auch die Beschreibung an die geänderten Anforderungen angepasst.

zurückzum Seitenanfang

MPEG-4

MPEG-4 ist eine Weiterentwicklung des MPEG-2-Formats und befindet sich seit 1996 in der Entwicklung. Obwohl MPEG-4 ursprünglich als ein Codierungsstandard für audiovisuelle Daten mit sehr niedriger Bitrate gedacht war, diente die Entwicklung weit mehr Zwecken als lediglich dem Streaming von linearen Mediendaten bei Internet- und drahtlosen Anwendungen. MPEG-4 stellt z.B. effiziente Mechanismen zur Komprimierung und Distribution interaktiver Medieninhalte bereit (z.B. MPEG-4 BIFS oder MPEG-4 LASeR). Außerdem verfügt MPEG-4 über 3D-Potentiale, um künstliche Intelligenzen (artificial intelligents - AI) zu visualisieren oder Avatare darzustellen - z.B. im Rahmen von Videokonferenzen. Dies geschieht übrigens mit einer VRML-ähnlichen Skriptsprache. Und zur Abrundung gibt es eine Java-Schnittstelle zur Ansteuerung externer Hardware.

zurückzum Seitenanfang

MPEG-4 (A/V)

MPEG-4 AVC, oder auch H.264 genannt, ist ein neuer und weltweiter Standard zur Video- und Audiokompression. Er wurde zunächst von der ITU (Study Group 16, Video Coding Experts Group) unter dem Namen H.26L entwickelt. Im Jahr 2001 schloss sich die ITU-Gruppe mit der MPEG-Video-Gruppe zusammen und führte die Entwicklung als Joint Video Team (JVT) fort. Im Jahr 2003 wurde der Standard in beiden Organisationen mit identischem Wortlaut, d.h. bei ITU als H.264 und bei MPEG als MPEG-4 AVC (Advanced Video Coding, MPEG-4/Part 10, ISO/IEC 14496-10) verabschiedet. Hierbei handelt es sich um eine Erweiterung des MPEG-4-Standards mit einer effizienten Kodierung nicht nur für Anwendungen beim mobilen Fernsehen bzw. Streaming über mobile Broadband-Kanäle sondern auch für Anwendungen bei SDTV und HDTV oder der HD-DVD.

Ziel des MPEG-4 AVC-Standards ist es, die Datenrate bei Video sowohl für mobile Anwendungen als auch im SD- und HD-Bereich bei gleicher Qualität im Vergleich zu bisherigen Standards um mindestens die Hälfte zu reduzieren. Das MPEG-4 A/V Format wird derzeit bei vielen Anwendungen, wie z.B. auch vom iPOD-Video (Dateinamenserweiterung: .mp4) benutzt. Die Wiedergabe von AVC-codiertem A/V-Material erfolgt am PC mit dem Quicktime 7 Player, dem VLC-Player bzw. mit diversen anderen spezialisierten MP4-Playern oder mit einer DirectShow-Erweiterung im Mediaplayer.

zurückzum Seitenanfang

MPEG-7

MPEG-7 ist ein multimedialer Standard zur Definition und Beschreibung multimedialer Inhalte. MPEG-7 hat den Titel "Multimedia Content Description Interface" und beschränkt sich auf die Syntax und die Semantik der Merkmale von Audio, Video, Grafik, Sprache, Fotos usw. und wie diese Elemente archiviert, zusammengefügt und synchronisiert werden können. Die rapide Zunahme an multimedialen Daten und deren Speicherung in Datenbanken und Online-Archiven setzt eine Objektbeschreibung voraus, die es sowohl Menschen als auch Computern ermöglicht, bestimmte Sequenzen zu erkennen, über Netze zu transportieren und im Dateiformat an das jeweils benutzte Endgerät anzupassen.

Die Beschreibung der Multimediadaten muss gleichermaßen für analoge Inhalte wie Videoclips oder Filme und für die verschiedenen digitalen Dateiformate angewandt werden können. Die Syntax des Textformats wird in der Description Definition Language (DDL) beschrieben und baut auf der Extended Markup Language (XML) auf, die um die Beschreibung für audiovisuelle Inhalte erweitert wurde. Mit anderen Beschreibungselementen lassen sich beispielsweise Farben, Farbräume und die Farbverteilung beschreiben. Wiederum andere sind für die Beschreibung von Räumen, Bewegungen und Aufnahmetechniken bestimmt. Das Haupteinsatzgebiet von MPEG-7 ist die digitale Medienbibliothek, die von überall abgefragt werden kann.

zurückzum Seitenanfang

Multicast

Unter Multicast versteht man eine Übertragungsart von einem Punkt zu einer Gruppe. Man spricht bei Multicast auch von Mehrpunktverbindung. In geschlossenen Netzwerken können IP-Datenpakete statt per Unicast auch per Multicast verschickt werden; dadurch können mehr User das gleiche Datenpaket empfangen, obwohl es nur einmal abgeschickt wurde. Damit wird bei vielen gleichzeitigen Zuschauern bspw. eines Live-Streams ganz erheblich die Netzwerklast reduziert. Der Vorteil von Multicast liegt also darin, daß in effizienter Weise gleichzeitig Nachrichten an mehrere Teilnehmer oder geschlossene Teilnehmergruppen (Closed User Groups) übertragen werden. Neben der Multicast-Verbindung gibt es die Unicast- und die Broadcast-Übertragung.

zurückzum Seitenanfang

MUSHRA

MUSHRA: MUlti Stimulus test with Hidden Reference and Anchor
Die MUSHRA-Methode (ITU-R BS.1534) gestattet es, das zu beurteilende Testsignal aus maximal zwölf zeitsynchronen Testsignalen beliebig auszuwählen, um es zur Beurteilung über Lautsprecher oder Kopfhörer wiederzugeben. Bei MUSHRA werden neben den eigentlichen Testsequenzen drei zusätzliche Stimuli angeboten. Sie beinhalten eine gekennzeichnete Referenz (unbeeinflusstes Originalsignal, das nicht zu beurteilen ist) sowie eine versteckte Referenz und einen versteckten Ankerstimulus (7 kHz tiefpass-begrenztes Original), welche wie die anderen Testsequenzen zu beurteilen sind. Die Beurteilung erfolgt an Hand einer kontinuierlichen Qualitätsskala von 0 bis 100% bzw. den Attributen "bad (mangelhaft) - excellent (ausgezeichnet)". Beurteilt wird die "allgemeine Audioqualität" unter Einbeziehung aller wahrgenommenen Störungen.

zurückzum Seitenanfang

MUSICAM

MUSICAM: Projektbezeichnung für den späteren Audiostandard MPEG-1 Layer-II

zurückzum Seitenanfang

MXF

MXF: Material Exchange Format
MXF ist ein Datei-Format für die professionelle A/V-Produktion und kann entfernt mit dem AVI-Format im Consumer-Bereich verglichen werden. Es erlaubt neben der Speicherung von komprimierten und unkomprimierten A/V-Signalen auch die Übertragung struktureller, allgemeiner und frei nutzbarer Metadaten bis hin zur Speicherung von Untertiteln. MXF legt eine Reihe sogenannter Operation Pattern für verschiedene Anwendungen fest, die z.B. auch die gleichzeitige Speicherung mehrerer A/V-Spuren und deren Zeitbezug zulassen.

zurückzum Seitenanfang

N

NAS

NAS: Network Attached Storage
Ein NAS arbeitet file-orientiert mit SMB/CIFS (Server Message Block) oder NFS und ist als selbstständige Einheit direkt an das (Nutz-)Netz angeschlossen. Ein NAS beinhaltet neben dem Speicher auch einen Server, welcher die abgelegten Daten den Anwendern im Netz zugänglich macht. Greift ein NAS-Gerät intern nicht auf seinen eigenen Speicher, sondern auf ein SAN zu, so spricht man hier von einem NAS-Head (was im Grunde einem gängigen Fileserver entspricht, welcher auch an ein SAN angeschlossen ist).

zurückzum Seitenanfang

NPAD

NPAD: Non Programme Associated Data
NPAD bezeichnet bei DAB Datenrundfunkdienste, die in einem eigenen Transportkanal (Sub-Channel) in Pakettechnik (Packet Mode) übertragen werden. Typische Dienste in NPAD sind: Nachrichten- und Wetterinformationen in Form von HTML-Seiten, TPEG-Verkehrsinformationen, EPG-Sendungsdaten etc.

zurückzum Seitenanfang

O

zurückzum Seitenanfang

P

PAD

PAD: Programme Associated Data
Ein Teil der Datenkapazität des DAB-Audiokanals kann zur Übertragung von programmbegleitenden Informationen verwendet werden. Die Daten werden in den MPEG-1 Layer II-Datenstrom eingebettet und synchron mit dem Hörfunkprogramm übertragen. Der PAD-Kanal besteht aus einem festen Steuerkanal (F-PAD) mit einer Datenrate von 0,7 kbit/s und einem erweiterten Transportkanal (X-PAD) mit einer Datenrate von prinzipiell 64 kbit/s. Typische Dateninhalte in PAD sind: Steuerinformationen für eine angepasste Abhörsituation, Radiotexte als Dynamic Label Segment, multimediale Dateien im MOT-Protokoll und kodierte Verkehrsmeldungen im TPEG-Format.

zurückzum Seitenanfang

PAL

PAL: Phase Alternating Line
PAL definiert ursprünglich die zum existierenden Schwarz/Weiss-Fernsehen kompatible Farbübertragung. Dabei wird ein zusätzlicher Farbträger übertragen, dessen Phasenlage in jeder Zeile invertiert wird, um den Einfluss von Übertragungsfehlern zu reduzieren.

Fälschlicherweise wird „PAL“ heute, z.B. in Video-Schnittsystemen, oft nur als Synonym für konventionell auflösendes Fernsehen mit 50 Halbbildern pro Sekunde benutzt – auch dann, wenn die bezeichneten Signale digital oder analog, im RGB-Format oder als Komponenten vorliegen und gar nicht als bandbegrenzte Signale auf einen Farbträger moduliert wurden.

zurückzum Seitenanfang

PCM

PCM: Puls Code Modulation
PCM ist die Abkürzung für Pulse Code Modulation mit deren Hilfe eine Umsetzung analoger in digitale Signale stattfindet. Das analoge Signal wird dabei mit einer bestimmten Frequenz in zeitgleichen Abständen abgetastet. Vorher müssen gemäß dem Nyquist-Shannon-Abtasttheorem mit einem Tiefpass zu hohe Oberwellen vom Signal herausgefiltert werden. Es entsteht ein pulsamplitudenmoduliertes Signal (PAM) mit zunächst beliebig vielen Amplitudenwerten. Das PAM-Signal wird nun mit einem AD-Wandler quantisiert; dazu werden die Amplitudenwerte in eine begrenzte Zahl von Quantisierungsstufen eingeteilt. Aus jedem quantisierten Abtastwert wird ein Codewort berechnet, das die Amplitudeninformation beinhaltet. Aus der zeitlichen Folge der Codeworte wird ein Digitalsignal erzeugt. Die Anzahl der möglichen Quantisierungsstufen n ergibt sich aus der Anzahl z der Bits, die ein Codewort hat. (n = 2z).

Aus wirtschaftlichen Gründen wird die Anzahl der Quantisierungsstufen auf ein Maß beschränkt, das für eine gute Übertragung notwendig ist. Bei der Audio-CD werden 65536 Stufen benutzt, ein Codewort hat 16 Bit, die Abtastfrequenz beträgt 44.1 kHz. Bei der Rückumwandlung deckt sich das Signal nicht mehr mit dem Ausgangssignal, da es in endlich viele Quantisierungsstufen eingeteilt wurde. Das dadurch entstehende Störgeräusch bezeichnet man als Quantisierungsrauschen, welches aber nicht unbedingt hörbar sein muss und mit steigendem Quantisierungsgrad abnimmt.

PCM ist das Standardverfahren zur Speicherung oder Übertragung von Audiosignalen in digitaler Form, etwa bei der CD. Dabei wird der analoge Spannungswert durch eine äquivalente, zum Beispiel 16-stellige Dualzahl dargestellt. Eine Alternative zu PCM ist das von Sony und Philips entwickelte DSD-Verfahren (“Direct Stream Digital“).

zurückzum Seitenanfang

PDA

PDA: Personal Digital Assistant

Der PDA ist ein kleiner tragbarer Computer mit eigener Stromversorgung, der hauptsächlich für persönliche Kalender-, Adress- und Aufgabenverwaltung benutzt wird. Die meisten Geräte ermöglichen die Installation weiterer freier oder kommerzieller Software für Navigation, Multimedia und andere Anwendungen.

zurückzum Seitenanfang

PES

PES: Packetized Elementary Stream
PES ist eines der in MPEG-2 (ISO/IEC 13818-1) festgelegten Paketierungsformate. Auf dem PES bauen weitere Paketierungsmechanismen, wie der für das Digitale Fernsehen DVB benutzte Transport-Stream (TS) und der für die DVD und auch häufig im PC-Bereich benutzte Program Stream (PS) auf.

zurückzum Seitenanfang

PI

PI: Programme Identification
Der PI-Code bei RDS (Radio Daten System) ist eine eindeutige, maschinenlesbare Signatur für Hörfunkprogramme. Dieser Kode umfasst 16 Bit und beinhaltet neben einer Referenznummer für das Programm eine Signalisierung, in welchem Gebiet das Programm verfügbar ist. Auf diese Art können internationale, nationale, regionale und lokale Programmangebote im UKW-Rundfunk unterschieden werden.

zurückzum Seitenanfang

PLT

PLT: Power Line Telecommunication
Hierunter versteht man ein Verfahren, welches die Stromleitungen in einem Gebäude benutzt, um digitale Daten zu übertragen. Dadurch erspart man sich das Verlegen einer Leitung, um beispielsweise eine Internetverbindung vom Keller zum Wohnzimmer herzustellen. Da es sich hierbei um Geräte handelt, die elektromagnetische Strahlung erzeugen, kann es bisweilen zu einer Störung des Rundfunkempfangs kommen.

zurückzum Seitenanfang

PS

PS: Programme Service Name
Der PS-Code wird bei RDS als ein statisches Textfeld, mit einer Länge von acht alphanumerischen Zeichen, ausgesendet, um UKW-Hörfunkprogramme anhand ihres Namens in der Anzeige des Radiogerätes zu identifizieren.

zurückzum Seitenanfang

PVR

PVR: Personal Video Recorder
PVR bezeichnet digitale Fernsehempfänger mit integriertem Festplattenspeicher, welche in der Lage sind, einzelne Sendungen anhand eines elektronischen Programmführers (EPG) aufzuzeichnen. Der Begriff wird inzwischen auch bei IPTV verwendet und bezeichnet einen Dienst, bei welchem die ausgewählten Sendungen auf den Speichern des DSL-Netzwerkanbieters aufgezeichnet und später vom Kunden gesehen werden können.

zurückzum Seitenanfang

Q

zurückzum Seitenanfang

QCIF

QCIF: Quarter Common Intermediate Format 
Bildformat von 176x144 Pixel

zurückzum Seitenanfang

R

RDS

RDS: Radio Data System
Seit April 1988 senden die öffentlich-rechtlichen Rundfunkanstalten Deutschlands mit RDS unhörbare Zusatzinformationen im UKW-Multiplexsignal. Diese Zusatzinformationen erleichtern dem Hörer das Abstimmen des Radios auf ein gewünschtes Programm. Beispielhafte RDS-Informationsarten sind: Programmname (PS), Programmidentifikator (PI), Radiotexte, alternative Frequenzen (AF) Verkehrsfunkdurchsage (TP/TA) und Stauumfahrungsinformationen (TMC).

zurückzum Seitenanfang

RFID

RFID: Radio Frequency Identification
Hierbei handelt es sich um Aufkleber oder andere Vorrichtungen, die zum Erkennen und Verfolgen von Objekten dienen. Der einfachste Fall ist ein passiver Chip, der mit einer Antenne versehen ist. Wird dieser Chip in das elektrische Feld eines Transponders gebracht, so sendet der Chip seine Kennung zurück. Dies geschieht berührungslos und ist über eine gewisse Distanz hinweg möglich. Mögliche Anwendungsfälle wären das Einkaufen im Supermarkt oder die Verteilung von Containern in Verladestationen.

zurückzum Seitenanfang

RPR

RPR: Resilient Packet Ring
Der Resilient Packet Ring hält seit kurzer Zeit vermehrt Einzug in Metro-Netzen. Diese relativ neue Technik definiert nur eine eigene MAC-Schicht und kann daher auf SDH- oder Ethernet-Transportschichten aufgesetzt werden. RPR definiert drei Verkehrsklassen, die eine Aufteilung der Nutzdaten nach ihren Eigenschaften ermöglicht. Die „Wirkung“ dieser QoS-Mechanismen wird in Kürze im IRT noch näher untersucht.

zurückzum Seitenanfang

RRC-06

RRC-06: Regional Radiocommunications Conference 2006
Die RRC ist eine von der ITU veranstaltete internationale Konferenz, die in zwei Teilen durchgeführt wurde. Sie diente der Neuordnung der Frequenzbänder III, IV und V in Hinblick auf den digitalen terrestrischen Rundfunk. Die RRC-04, der erste Teil der Konferenz, der im Mai 2004 stattfand, legte die notwendigen Planungsverfahren und -parameter fest, der zweite Teil (RRC-06) im Mai/Juni 2006 diente der Erstellung des neuen Frequenzplans. Dieser ersetzt für die europäische Rundfunkzone das Abkommen von Stockholm 1961, in dem die Frequenznutzung für analoges Fernsehen geregelt war.

zurückzum Seitenanfang

RTP

RTP: Realtime Transport Protocol
Wie beschrieben, eignet sich das User Datagram Protocol zur ungesicherten Übertragung von Echtzeitdaten (Audio, Video, Sprache). In großen Netzen ohne Quality of Service kann es vorkommen, dass Pakete verloren gehen, in ihrer Reihenfolge vertauscht werden oder starken Laufzeitschwankungen ausgeliefert sind. Um die Qualität der Übertragungsstrecke beurteilen zu können, wurde das Realtime Transport Protocol entwickelt. Das RTP-Paket wird als Payload in einem UDP-Paket übertragen und fügt unter anderem einen Zeitstempel und eine Sequenznummer ein.

zurückzum Seitenanfang

S

SAMVIQ

SAMVIQ: Subjective Assessment Methodology for Video Quality
SAMVIQ ist eine neue und international standardisierte Messmethode zur Bestimmung der subjektiven Qualität von Video im Umfeld von Multimedia. Hierbei wird die Beurteilung eines großen Bereiches von unterschiedlichen Videocodecs, Bildformaten, Datenraten, zeitlicher und örtlicher Auflösung abgedeckt. Bei SAMVIQ werden der Testperson neben den verschieden codierten Varianten auch das Original (Explicit Reference), die „Hidden Reference“ als oberer Anker und eine sehr schlecht codierte Variante als unterer Anker dargeboten. Sie hat die Möglichkeit, beliebig zwischen diesen Bildqualitäten hin- und herzuschalten und ihr Urteil abzugeben. Die Methode wurde 2003 von einer Spezialistengruppe (EBU B/VIM) innerhalb der EBU entwickelt und verifiziert und bei ITU-R 6Q im selben Jahr zur internationalen Standardisierung eingereicht. 

zurückzum Seitenanfang

SAN

SAN: Storage Area Network
In einem SAN sind die Speichergeräte und die Server, welche die Daten direkt beziehen, untereinander über ein dediziertes Netzwerk verbunden. Dieses unabhängige Netz ist speziell auf die Bedürfnisse in diesem Anwendungsbereich zugeschnitten und optimiert (Schwerpunkt liegt hier meist auf einer blockorientierten Bearbeitung). Welche Technologie hierbei zum Einsatz kommt, variiert je nach Infrastruktur und Anforderungen. Meist wird hier jedoch ein Fiber Channel-Netz eingesetzt, welches zusammen mit SCSI sehr effektiv und verlässlich die Datenmengen übertragen kann. Es ist aber auch möglich andere Techniken wie NFS (Network File System) oder CIFS (Common Internet File System) (file-orientiert) oder das noch junge iSCSI über IP zu nutzen.

zurückzum Seitenanfang

SCSI

SCSI: Small Computer System Interface

SCSI ist eine standardisierte parallele Schnittstelle zur Datenübertragung zwischen Geräten, die über Kabel an einem Bus angeschlossen sind.

zurückzum Seitenanfang

SDH

SDH: Synchronous Digital Hierarchy
SDH basiert auf TDM-Zeitschlitzverfahren und wird auch als Transportschicht unterschiedlicher Backbone-Techniken verwendet (z.B. ATM, DTM, RPR). Durch die Granularität der Aufteilung in virtuelle Container (VC) erfolgt die Ausnutzung der Bandbreite entsprechend dieser Container (VC-1 = 2,2 Mbps, VC-2 = 6,8 Mbps, VC-3 = 48 Mbps, VC-4 = 150 Mbps usw.). SDH bietet aufgrund der Verwendung des Zeitschlitzverfahrens auch für Echtzeitanwendungen sehr gute QoS.

zurückzum Seitenanfang

SDI

SDI: Serial Data Interface
SDI ist eine serielle digitale Studioschnittstelle für die Übertragung unkomprimierter Komponenten-Signale für das konventionell auflösende Fernsehen. Eine erweiterte Variante HD-SDI erlaubt auch die Übertragung von HDTV.

zurückzum Seitenanfang

SDR

SDR: Software Defined Radio
Mit dem Konzept des Software Defined Radio wird angestrebt, möglichst die gesamte Signalverarbeitungskette durch Software zu definieren. Damit wird eine Rekonfigurierbarkeit erreicht, und eine Anpassung an Änderungen der Übertragung kann vorgenommen werden, ohne dass Eingriffe in die Hardware der Geräte stattfinden müssen.

zurückzum Seitenanfang

SDTV

SDTV: Standard Definition Television
SDTV beschreibt das konventionelle Fernsehen mit einem Betrachtungsabstand von etwa der 6-fachen Bildhöhe. Beim hochauflösenden Fernsehen (HDTV) sollen bei einem Betrachtungsabstand von der dreifachen Bildhöhe keine Zeilen- oder Bildpunktstrukturen am Bildschirm zu erkennen sein.

zurückzum Seitenanfang

SECAM

SECAM: Séquentiel couleur à mémoire
SECAM ist ein parallel zu PAL entwickeltes System zur schwarzweißfernseh-kompatiblen Farbübertragung. Als analoge Fernsehnorm wird SECAM z.B. in Frankreich und Osteuropa verwendet.

zurückzum Seitenanfang

SISY

SISY: SenderInformationsSYstem
Für die Versorgungsprognose bei Sendernetzen ist ein konsistenter und vollständiger Bestand aller Senderdaten unerlässlich. Das IRT hat zu diesem Zweck, zusammen mit den öffentlich-rechtlichen Rundfunkanstalten Deutschlands, das Senderinformationssystem SISY aufgebaut.

zurückzum Seitenanfang

SNMP

SNMP: Simple Network Management Protocol
SNMP ist ein Protokoll zum Netzwerkmanagement. Es dient zur Übertragung von Meldungen und Befehlen zwischen den zu überwachenden Geräten (Agenten) und der Überwachungsstation (Manager). Die Semantik und die Syntax der von SNMP übertragenen Nutzinformation wird dabei in der MIB (Management Information Base), einer besonderen Datenbank, beschrieben.

zurückzum Seitenanfang

SONET

SONET: Synchronous Optical Network
Untermenge von SDH, wird überwiegend in Nordamerika eingesetzt.

zurückzum Seitenanfang

SRD

SRD: Short Range Devices
Short Range Devices (SRD) gehören zu den “Jedermann”-Funkanwendungen für die Sprach- oder Datenübertragung, die weder angemeldet noch genehmigt werden müssen. Es dürfen nur zertifizierte Geräte verwendet werden. Beispiele sind Modellfernsteuerungen, Garagentoröffner, Zentralverriegelungen, Außenthermometer, Bewegungsmelder, Funkanlagen kleiner Leistung für medizinische Implantate und Warensicherungen.

zurückzum Seitenanfang

T

TA

TA: Traffic Announcement
Die Informationsart TA kennzeichnet bei RDS und DAB eine Verkehrsdurchsage. Im Fall einer Verkehrsmeldung oder einer Warnung zu einem Falschfahrer, wird diese Information unhörbar mit dem Hörfunkprogramm übertragen. Ist die TA-Taste am Radio gedrückt, schaltet der Empfänger automatisch auf das Programm, welches die Durchsage sendet.

zurückzum Seitenanfang

TCP/IP

TCP/IP: Transmission Control Protocol/Internet Protocol
Das Transmission Control Protocol TCP gehört wie UDP zur Familie der Internetprotokolle und ist eng mit diesem verbunden, daher spricht man in der Regel von TCP/IP. TCP arbeitet verbindungsorientiert und damit kontrolliert und sichert es die Datenübertragung zwischen zwei Endpunkten ab. Zwischen diesen wird ein virtueller Kanal aufgebaut, es können Daten in beide Richtungen übertragen werden. Durch Einführen von Port-Nummern werden die Daten den Applikationen zugeordnet (z.B. Port-Nummer 80 für http). Der erfolgreiche Empfang aller Pakete wird dem Sender mitgeteilt (quittiert). Geht während der Übertragung ein Paket verloren, kann der Empfänger den Paketverlust anhand der eingeführten Sequenznummer feststellen. Nicht quittierte Pakete verschickt der Sender erneut. Anhand der Sequenznummer kann der Empfänger auch zeitlich vertauschte Pakete wieder in die richtige Reihenfolge bringen. Aufgrund der Wiederholungen eignet sich TCP nur bedingt für die Übertragung von Streaming-Daten, jedoch sehr gut für die Übertragung von Dateien.

zurückzum Seitenanfang

TK

TK: Telekommunikationsnetzwerk
Ein Telekommunikationsnetzwerk umfasst eine Gesamtheit von netz-, vermittlungs- und übertragungstechnischen Einrichtungen sowie die Verbindungsmöglichkeiten zwischen diesen Systemelementen.

zurückzum Seitenanfang

TMC

TMC: Traffic Message Channel
Mit TMC können Stauumfahrungsinformationen für Navigationssysteme unhörbar als Zusatzinformation mit dem Radioprogramm in RDS und DAB übertragen werden. Um möglichst viele TMC-Meldungen in einem schmalen Rundfunkkanal zu übertragen, werden die Daten effizient kodiert. Eine TMC-Meldung besteht aus drei Elementen: einem Kode für das Verkehrsereignis (Stau, Unfall, Sperrung etc.), einer Verortungsinformation (Strecke, Punkt, Ausfahrt etc.) und zusätzlichen Informationen über das Sendernetz und den Anbieter des Dienstes.

zurückzum Seitenanfang

TPEG

TPEG: Transport Protocol Experts Group
TPEG ist ein neues Verfahren für die Aussendung von Reise- und Transportinformationen über digitale Verbreitungssysteme, wie z.B. DAB, DMB, DVB und Internet. Im Gegensatz zu TMC ist TPEG nicht nur auf den Straßenverkehr begrenzt, sondern kann auch Daten zu Parkräumen, dem öffentlichen Personennah- und Fernverkehr, zu Großereignissen und dem Wetter beinhalten.

zurückzum Seitenanfang

Triple Play

Triple Play bezeichnet das gleichzeitige Angebot von Fernsehen, Telefonie und Internet durch einen einzigen Anbieter, häufig auch über dieselbe Infrastruktur wie etwa das Breitband-Kabel oder DSL.

zurückzum Seitenanfang

TS

TS: Transport Stream
Der Transport Stream ist von MPEG-2 (ISO/IEC 13818-1) definiert und erlaubt die Übertragung mehrerer unabhängiger Audio- und/oder Videoprogramme in einem einigen Datenkanal. Dabei werden Datenpakete mit je 188 Bytes im Zeitmultiplex übertragen. Der TS wird für die von DVB definierten Übertragungsverfahren DVB-S, DVB-C, DVB-T und bei DMB genutzt.

zurückzum Seitenanfang

U

UDP

UDP: User Datagram Protocol
Das User Datagram Protocol gehört wie TCP zur Familie der Internet-Protokolle. UDP-Pakete werden immer als Payload in ein IP-Paket verpackt. Das Protokoll hat die Aufgabe, die Daten der entsprechenden Applikation zuzuordnen. So sorgen die Angabe von Quell-Port und Ziel-Port dafür, dass z.B. ein UDP-Paket mit Ziel-Port 53 vom Empfänger an den Nameserver weitergereicht wird und dieser wird die Antwort zurück an den Sender von Quell-Port 53 auf dessen Quell-Port schicken und wird von diesem als Antwort erkannt. Im Unterschied zu TCP verzichtet UDP auf den 3-Wege-Handshake, die Übertragung der Daten erfolgt somit ungesichert. Somit bietet sich der Einsatz von UDP dort an, wo es auf Schnelligkeit der Übertragung ankommt und Paketwiederholungen störend wären. Typischer Einsatz ist die Übertragung von Video- und Audioströmen.

zurückzum Seitenanfang

UMTS

UMTS: Universal Mobile Telecommunications System
UMTS ist die dritte Generation des Mobilfunksystems. Sie ermöglicht Breitband-Datenübertragung für mobile Endgeräte, somit wird es möglich, auf diesen Endgeräten z.B. Video Streaming oder Internet-ähnliche Dienste zu empfangen. Die erreichbaren Bandbreiten liegen je nach Zelldichte und Bewegung des Nutzers zw. 144 kbit/s und 1,92 Mbit/s (die 1,92 Mbit/s stehen im Normalfall einem einzelnen User aber nicht zur Verfügung).

zurückzum Seitenanfang

Unicast

Eine Punkt-zu-Punkt-Übertragung, die eine Kommunikation zwischen einem einzelnen Absender und einem einzelnen Empfänger über ein Netzwerk erlaubt. Für jedes vom Server über ein Netzwerk verschicktes IP-Datenpaket  gibt es im Gegensatz zu Multicast mit vielen gleichzeitigen Empfängern genau einen Empfänger. Für jeden neuen Benutzer wird eine neue Verbindung aufgebaut. Übliche Anwendungen sind: Internetservices wie WWW, Media-Streaming, E-Mail und FTP.

zurückzum Seitenanfang

UPnP

UPnP: Universal Plug und Play
Universal Plug and Play (UPnP) dient zur herstellerübergreifenden Ansteuerung von Geräten wie Stereoanlagen, Routern, Druckern und Haussteuerungen über ein IP-basierendes Netzwerk, mit oder ohne zentrale Kontrolle durch ein Residential Gateway. Es basiert auf einer Reihe von standardisierten Netzwerkprotokollen und Datenformaten. UPnP wurde ursprünglich von der Firma Microsoft eingeführt. Heute werden Geräte durch ein spezielles UPnP-Forum nach dem UPnP-Standard zertifiziert.

Für den IP-basierten Informationsaustausch in der Anwendungsschicht nutzt UPnP SOAP-kodierte XML-Nachrichten. Im UPnP-AV-Teil des Standards werden des weiteren multimediale Inhalte wie Audio, Video und Bilder, gesteuert durch einen „Controlpoint“, zwischen „Renderer“ und „Server“ ausgetauscht. Der Controlpoint ermöglicht dabei die Steuerung des Transfers von Audio- und Videodatenströmen sowie von Bilddateien, welche vom Server angeboten und anschließend durch den Renderer dargestellt werden. Bestimmte Kombinationen dieser Komponenten werden durch die DLNA wiederum zu „Digital Media Player“ (DMP) und „Digital Media Server“ (DMS) zusammengefasst.

zurückzum Seitenanfang

UWB

UWB: Ultra Wide Band
Hier werden relativ kleine Leistungen verwendet, die allerdings über einen großen Frequenzbereich verteilt sind. Ein Beispiel dafür ist das Abstandsradar in Kraftfahrzeugen. Der Vorteil liegt in der Genehmigungsfreiheit von solchen Systemen. Solange die Summe von solchen Signalen unter den erlaubten Grenzwerten bleibt, ist nichts zu befürchten. Allerdings können die Grenzwerte überschritten werden, wenn viele solcher Verfahren gleichzeitig eingesetzt werden.

zurückzum Seitenanfang

V

VDCP

VDCP: Video Disk Control Protocol
VDCP basiert auf der seriellen Schnittstelle RS-422 und wurde aus den Protokollen zur Steuerung von professionellen Bandmaschinen durch Automationssysteme entwickelt. Dabei wurden insbesondere erweiterte Anforderungen durch Videoserver mit mehreren Kanälen berücksichtigt.

zurückzum Seitenanfang

W

WAPECS

WAPECS: Wireless Access Platforms for Electronic Communications Services
WAPECS ist ein Konzept der „Radio Spectrum Policy Group“ (RSPG) der EU-Kommission für die Vergabe und Nutzung von Rundfunkfrequenzen. Das Konzept umfasst u.a. die Harmonisierung und Liberalisierung der Frequenznutzung, den Spektrum-Handel, die Effizienzsteigerung der Frequenznutzung und die Versteigerung von Frequenzen. Das Konzept wurde im November 2005 veröffentlicht (http://rspg.groups.eu.int/doc/documents/meeting/rspg8/rspg_05_102.pdf).

zurückzum Seitenanfang

WAN

WAN: Wide Area Network
Als WAN bezeichnet man Netzwerke, deren räumliche Ausdehnung über die eines Citynetzes hinaus gehen. Sie können eine weltweite Ausdehnung haben. Als Netztechniken für die Core Infrastruktur kommen zumeist glasfaserbasierte Techniken in Frage, allerdings könne auch Satellitennetze oder Richtfunk zum Einsatz kommen. Heute weit verbreitete WAN-Technlogien sind z.B. ATM, SDH, WDM etc..

zurückzum Seitenanfang

WDM

(C)DWDM: (Coarse) Dense Wavelength Division Multiplex
Wellenlängen-Multiplex-Verfahren bieten die Möglichkeit, verschiedene Wellenlängen über eine einzelne Glasfaser zu übertragen. Hier unterscheidet man zwischen CWDM (C = Coarse), welches preisgünstiger ist, da die Abstände zwischen den genutzten Wellenlängen größer sind und DWDM (D = Dense), bei dem kleinere Abstände mit teurerer Technik genutzt werden und daher auch mehr Bandbreite in Form von Wellenlängen verfügbar sind. Da hier alle Nutzdaten theoretisch (falls möglich) direkt Punkt-zu-Punkt über die Wellenlänge übertragen werden, ist eine nahezu optimale Dienstgüte möglich.

zurückzum Seitenanfang

WFS

WFS: Wellenfeldsynthese
Die Wellenfeldsynthese wurde zuerst ab 1988 an der Technischen Universität Delft entwickelt und dort auch das erste Mal in einem Demonstrationssystem mit 160 Lautsprechern realisiert. Deutlich erweitertes Interesse erlangt die Wellenfeldsynthese seit dem von der EU geförderten Projekt CARROUSO (2001 bis 2003).

Für die räumliche Übertragung wird im Gegensatz zur Lautsprecher-Stereofonie mit Hilfe von horizontal angebrachten Lautsprecherarrays angestrebt, das Originalschallfeld einer virtuellen akustischen Szene korrekt in der Umgebung des Hörers zu reproduzieren. Die für die räumliche Wahrnehmung wirksamen Ohrsignalmerkmale entstehen auf natürlichem Wege im Schallfeld. Der Hörer kann sich in der gesamten Hörzone frei bewegen, während die virtuellen Schallquellen hinter dem Array und fokussierte Quellen vor dem Array raumstabil lokalisierbar bleiben und eine natürliche Perspektive wahrgenommen wird. Die theoretischen Möglichkeiten werden in der Praxis allerdings eingeschränkt, nicht nur wegen technischer Unzulänglichkeiten auf der Wiedergabeseite, sondern auch aufgrund aufnahmeseitiger Probleme bei der Übertragung ausgedehnter oder bewegter Schallquellen sowie der akustischen Umgebung (Atmo). Verschiedene Schwierigkeiten werden umgangen, indem man Methoden der Mehrkanal-Stereofonie einsetzt (z.B. die übliche Abmischung über WFS-generierte virtuelle Lautsprecher). Nicht alle Anforderungen für „Virtual Reality“ sind mit WFS realisierbar.

zurückzum Seitenanfang

WiMAX

WiMAX: Worldwide Interoperability for Microwave Access
WiMAX ist der Kategorie Wireless IT-Netzwerke zuzuordnen. Die Technik ist sowohl von ETSI (HiperMAN) als auch von IEEE standardisiert. Es existieren die zwei Varianten „Fixed WiMAX“ (IEEE 802.16-2004) und „Mobile WiMAX“ (IEEE 802.16e-2005). Beide Varianten basieren auf dem Mehrträger-Modulationsverfahren OFDM. Bei Mobile WiMAX erfolgte eine Erweiterung um Skalierbarkeit und Mehrfachzugriff (S-OFDMA). Der Standard unterstützt ATM- und IP-basierte Netzwerkdienste und ermöglicht QoS auf dynamisch konfigurierbaren Verbindungen. Es ist ein Unicast-, Mulicast- und Broadcastservice definiert. Die Reichweite schwankt zwischen einigen hundert Metern in stark bebauter Umgebung ohne Sichtverbindung und 30-50 km bei guter Sichtverbindung.

zurückzum Seitenanfang

Wittsmoor

Liste ausgewählter Senderdaten aller Hörfunk- und Fernsehsender in der Bundesrepublik Deutschland, die früher vom Norddeutschen Rundfunk, Abt. Sendertechnik in Wittsmoor in Buchform herausgegeben wurde. Seit 2006 wird sie vom IRT gepflegt und in elektronischer Form zur Verfügung gestellt.

zurückzum Seitenanfang

WLAN

WLAN: Wireless Local Area Network
Wireless LAN ist von IEEE als 802.11-Standard in einer Vielzahl an Varianten als Wireless IT-Netzwerk mit Reichweiten zwischen zehn und 100 Metern existent. 802.11b schafft eine maximale Linkrate von 11Mbit/s und bedient sich der Modulationsverfahren DSSS und CCK. Die Varianten 802.11a,g,h arbeiten mit maximalen Linkraten von 54Mbit/s und dem OFDM-Verfahren. Die neueste Variante 802.11n erreicht durch Multiantennentechniken und doppeltem Frequenzspektrum Linkraten bis maximal 600 Mbit/s. 802.11e definiert eine Class of Service mit vier Kategorien.

zurückzum Seitenanfang

WRC

WRC: World Radiocommunication Conference
Die WRC ist eine von der ITU veranstaltete internationale Konferenz, die in Abständen von zwei bis vier Jahren stattfindet. Diese Konferenz dient der Zuweisung des Radio-Frequenzspektrums an verschiedene Funkdienste wie beispielsweise Rundfunk, Militär, Luftfahrt und Amateurfunk, sowie der Festlegung des zugehörigen regulatorischen Rahmens.

zurückzum Seitenanfang

X

zurückzum Seitenanfang

Y

zurückzum Seitenanfang

Z

zurückzum Seitenanfang

Seite drucken Seite weiterempfehlen
Kontakt

Ihr Kontakt zum IRT

Tel. +49 (0)89 32399-0

E-Mail: presse @ irt.de