Haltet Ihr es für möglich, dass Zeichen wichtig genug sind, um einer von den acht primitiven Datentypen zu sein?
Ja.
char
Zeichen Daten (alles was über die Tastatur eingegeben werden kann) sind in der Programmierung sehr gebräuchlich. Der englische Begriff dafür ist character data
Der dafür verwendete primitive Datentyp hat den Namen char
, um Tipparbeit zu sparen.
Der char
-Typ verwendet 16 Bit für die Darstellung der Zeichen.
In vielen Programmiersprachen werden nur 8 Bit für diesen Zweck verwendet.
Java verwendet 16 Bit, um auch die
Schriftzeichen anderer Sprachen als der Englischen darstellen zu können.
Die dafür verwendete Methode wird Unicode genannt.
Zum Beispiel, hier ist ein 16-Bit Muster:
0000000001100111
Wenn wir wissen, dass diese 16 Bit vom Datentyp char
sind,
dann könnten wir in einer Tabelle nachsehen und feststellen, dass
sie das Zeichen 'g' darstellen.
Wenn wir ein wirklich gutes Gedächtnis besitzen, könnten wir uns
daran erinnern, dass die gleichen 16 Bit die Ganzzahl 103 darstellen,
wenn sie als Datentyp short
betrachtet werden.
Es ist notwendig den Datentyp eines Musters zu kennen,
um ihm einen Sinn verleihen zu können.
Groß - und Kleinbuchstaben werden durch unterschiedliche Muster dargestellt.
Interpunktion und Sonderzeichen sind ebenfalls char
-Daten.
Es gibt auch Sonderzeichen wie das Leerzeichen, das Worte trennt.
Steuerzeichen sind Bitmuster, die z.B. das Zeilenende anzeigen. Andere Steuerzeichen stellen mechanische Aktionen alter Kommunikationsgeräte (wie Fernschreiber) dar, die heutzutage selten verwendet werden, aber beibehalten werden müssen.
Der primitive Typ char
repräsentiert ein einzelnes Zeichen.
Er enthält keinerlei Information über den Font.
Wenn wir mehr als nur ein Zeichen gleichzeitig handhaben möchten (fast immer),
müssen wir Objekte verwenden, die aus
char
-Daten konstruiert werden.
Ist jedes der folgenden ein unterschiedliches Zeichen?
0 O o