Die Schrift ist zunächt durch graphische Eigenschaften charakterisiert. Die jeweiligen Elemente der Schrift, wie z.B. nicht mehr weiter zerlegbare Einzelzeichen oder Zusammensetzungen (Silben, Ligaturen) müssen technisch repräsentiert werden. Klassischerweise werden dafür Lettern im Bleisatz verwendet. Die moderne technische Umsetzung bedient sich einer computergerechten Beschreibung des Schriftschnittes. Diese Beschreibung wird Font genannt. Von ihr zu unterscheiden ist die Abbildungsvorschrift, die im Rechner intern verwendet wird, um Strings zu beschreiben. Diese Abbildungsvorschrift heißt Codierung.
Frühe technisch verwendete Codierungen zur Informationsverarbeitung sind der Morse-Code oder der in der Fernschreibtechnik verwendete Baudot-Code. Aus der Not der begrenzten Übertragungskapazität der Kanäle wurden Codierungen geschaffen, die neben den Buchstaben nur noch die arabischen Ziffern 0..9 und einige Satzzeichen enthielten. Auf Sonderzeichen wurde kaum Rücksicht genommen.
Da die Entwicklung des Computers zunächst stark im angloamerikanischen Sprachraum vorangetrieben wurde, und anfangs die Bearbeitungs- und Speichermöglickeiten sehr begrenzt waren, entstanden Codes, die sich ebenfalls nur auf die unbedingt notwendigen Zeichen beschränkten. Typische Vertreter dieser Codes sind:
Zunehmende Verbreitung der Rechnertechnologie und die Internationalisierung, sowie das Aufkommen preiswerter Massencomputer (PC) bewirkten die Schaffung des 8-Bit-ASCII-Codes, der sich in verschiedenen Varianten verbreitete. Letztlich setzten sich zwei Varianten durch, die heute den "Standard" darstellen:
Erst die rasante Entwicklung und die intensive Nutzung des Internets bewirkte die Durchsetzung des Standard-Codes ISO-Latin 1, der weitgehend dem DEC-VT-100-Standard entspricht. ISO-Latin 1 erlaubt die Wiedergabe von Texten, die in den verbreiteten europäischen Sprachen verfaßt sind, soweit sie auf der lateinischen Schrift basieren.
In Japan wurden - bedingt durch eine gänzlich andere Schriftsprache - Zeichensätze bzw. -zuordungen wie z.B. der JIS-Code entwickelt.
Die fortschreitende Globalisierung führte zur Anforderung, einen neuen Zeichensatz-Standard zu schaffen, der weltweit nutzbar sein sollte. Die Zugänglichkeit billigster Speichermedien förderte die Schaffung des Standard-Zeichensatzes UNICODE, der mit seinem Potential, mehr als 65000 Zeichen zu codieren, auf absehbare Zeit eine ausreichende Reichhaltigkeit für die Repräsentation lebender Sprachen bieten dürfte. Der erweiterte Unicode-Standard, der mit 3 Bytes pro Zeichen arbeitet, zielt darüberhinaus auch auf die Definition aller, auch heute nicht mehr gebräuchlichen, historischen Zeichen, die jemals verwendet wurden. UNICODE ist ein lebender Standard, d.h. daß von Zeit zu Zeit neue Zeichen an bisher unbelegte Plätze der Zeichensatztabelle aufgenommen werden. Aktuelles Beispiel dafür ist das "Euro"-Symbol, das den Code 20ACh erhielt.Vgl. dazu Himmelein[Seite 210ff.]
Moderne Systeme, die Benutzeroberflächen anbieten, sollten in jedem Falle der Tatsache Rechnung tragen, daß die Verwendung des UNICODE bzw. der Untermenge ISO Latin 1 stattfindet.
Die Codierung des Zeichens, also die Zuordnung zwischen dem Zeichen und seiner rechnerinternen Darstellung, trifft noch keine Aussagen über die graphische Repräsentation der Zeichen an der Benutzeroberfläche. Die Ausgabe der Zeichenform erfolgt über einen Zeichengenerator, wobei mit diesem Wort allgemein eine Hardwareeinrichtung, aber auch ein Programm gemeint sein kann, das für die Wiedergabe des Zeichens auf dem Ausgabemedium sorgt. Es gibt zwei gangbare Wege, Zeichen darzustellen. Die Methoden und ihre Eigenschaften werden in der nächsten Tabelle zusammengefaßt.
Zeichensatzbeschreibung | ||
---|---|---|
Vektorbasiert | Pixelbasiert | |
Vereinbarung | Das Zeichen wird über eine Abfolge von Liniensegmenten beschrieben | Das Zeichen wird durch eine Punktmatrix beschrieben |
Skalierbarkeit | Beliebige Streckung ohne Verlust der Kantengenauigkeit möglich. | Streckung nur in ganzzahligen Faktoren möglich. Bei der Streckung wird die Zeichendarstellung gröber. |
Satz von Schriften unterschiedlicher Größe | Durch Skalierbarkeit genügt ein Zeichensatz | Für jede Größe ist eine eigene Zeichensatzvereinbarung nötig |
Abbildung auf Pixeldisplay | Bei ungünstigen Streckungsfaktoren Qualitätsverluste durch Aliasingeffekte | Punktgenaue Abbildung sichert gute Zeichenqualität ohne Verluste |
Bei Bitmap-Fonts werden die einzelnen Zeichen durch ein gerastertes Muster von gesetzten und nicht gesetzten Bildpunkten beschrieben. Die klassische Bitmapschrift bildet das lateinische Alphabet und die arabischen Ziffern in einer 5 ´ 7-Matrix ab. Die Größe des verwendeten Rasters hängt von der benötigten Darstellungsgröße für das Auge des Betrachters ab, von der Feinheit der Bildpunkte (Pixel) und der gewünschten Feinheit der Auflösung.
Üblicherweise werden Bitmapfonts mit 1 Bit/Pixel beschrieben. Allerdings ist auch die Verwendung von mehr als 1 Bit/Pixel möglich, um ein vorab-berechnetes Anti-Aliasing im Zeichensatz abzulegen.
Der große Vorteil von True Type Fonts ist die Möglichkeit, Zeichen in beliebiger Weise zu skalieren. Dies kann sogar zu Verformungen abbildungsgeometischer Natur genutzt werden, wie z.B. die Projektion eines Textes auf eine Kugeloberfläche. Grundlage ist die Speicherung der Zeichen durch geeignete mathematische Funktionen.
Der Vorteil wird durch den Einsatz entsprechender Skalierungsalgorithmen erkauft, die in der Regel laufzeitintensiver sind, als das reine Bitschieben, wie es beim Einsatz von Bitmap-Fonts verwendet wird.
Stand: 21.11.2002 / |
|