In der Computer- und Telekommunikationstechnik ist ein Zeichen eine Grundinformationseinheit einer Glyphe, einer glyphenähnlichen Einheit oder eines Symbols.
Zeichen beziehen sich auf Buchstaben, Zahlen, Wörter und Symbole, die in Computern verwendet werden, einschließlich: 1, 2, 3, A, B, C, ~! ·#¥%……——*()——+usw.
Bei der ASCII-Codierung benötigt ein englisches alphabetisches Zeichen 1 Byte zum Speichern.
Bei der GB 2312-Kodierung oder GBK-Kodierung erfordert die Speicherung eines chinesischen Zeichens 2 Bytes.
Bei der UTF-8-Codierung erfordert die Speicherung eines englischen alphabetischen Zeichens 1 Byte und die Speicherung eines chinesischen Zeichens 3 bis 4 Byte.
Bei der UTF-16-Codierung erfordert die Speicherung eines englischen alphabetischen Zeichens oder eines chinesischen Zeichens 2 Bytes (einige chinesische Zeichen im Unicode-Erweiterungsbereich erfordern 4 Bytes zum Speichern).
Bei der UTF-32-Kodierung erfordert die Speicherung eines beliebigen Zeichens auf der Welt 4 Bytes.
Zeichen sind abstrakte Einheiten, die mithilfe vieler verschiedener Zeichenschemata oder Codepages dargestellt werden können.
Zum Beispiel stellt die Unicode UTF-16-Kodierung Zeichen als Folge von 16-Bit-Ganzzahlen dar, während die Unicode UTF-8-Kodierung dieselben Zeichen als Folge von 8-Bit-Bytes darstellt. Die Common Language Runtime von Microsoft verwendet Unicode UTF-16 (Unicode Transformation Format, eine 16-Bit-Kodierung) zur Darstellung von Zeichen.
Das obige ist der detaillierte Inhalt vonWas sind die Charaktere?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!