1. Zeichen:
Zu den Zeichen gehören Buchstaben, Zahlen, arithmetische Symbole, Satzzeichen und andere Symbole sowie einige Funktionssymbole. Wenn Zeichen im Computer gespeichert werden, sollte der entsprechende Binärcode angegeben werden, der das Zeichen darstellt. Die Auswahl der Codes sollte mit den Spezifikationen der jeweiligen Peripheriegeräte übereinstimmen. Zu diesen Peripheriegeräten gehören die Eingabe und Ausgabe der Tastaturkonsole, die Ausgabe des Druckers usw. Bei der Eingabe von
-Zeichen werden diese automatisch in Binärcodes umgewandelt und im Gerät gespeichert; bei der Ausgabe werden die Binärcodes im Computer automatisch in Zeichen umgewandelt. Die Umwandlung beider erfolgt durch Peripheriegeräte. Das Zeichen
ist die kleinste Datenzugriffseinheit in der Datenstruktur. Ein Zeichen wird normalerweise durch 8 binäre Bits (ein Byte) dargestellt, es gibt jedoch auch einige Computersysteme, die 6 binäre Zeichendarstellungen verwenden. Die Größe des Zeichensatzes in einem System wird vollständig vom System selbst bestimmt. Die Anzahl der für Computer verfügbaren Zeichen beträgt im Allgemeinen 128 bis 256 (mit Ausnahme chinesischer Zeichen). Nachdem jedes Zeichen in den Computer eingegeben wurde, wird es in eine 8-Bit-Binärzahl umgewandelt. Unterschiedliche Computersysteme und unterschiedliche Sprachen haben unterschiedliche Zeichenbereiche.
Bei der ASCII-Codierung benötigt ein englisches alphabetisches Zeichen 1 Byte zum Speichern.
Bei der GB 2312-Kodierung oder GBK-Kodierung erfordert die Speicherung eines chinesischen Zeichens 2 Bytes. Bei der UTF-8-Codierung erfordert die Speicherung eines englischen alphabetischen Zeichens 1 Byte und die Speicherung eines chinesischen Zeichens 3 bis 4 Byte. Bei der UTF-16-Codierung erfordert die Speicherung eines englischen alphabetischen Zeichens oder eines chinesischen Zeichens 2 Bytes (einige chinesische Zeichen im Unicode-Erweiterungsbereich erfordern 4 Bytes zum Speichern). Bei der UTF-32-Kodierung erfordert die Speicherung eines beliebigen Zeichens auf der Welt 4 Bytes.
2. String:
Ein String oder String (String) ist eine Zeichenfolge bestehend aus Zahlen, Buchstaben und Unterstrichen. Im Allgemeinen aufgezeichnet als s=“a1a2···an“ (n>=0). Es handelt sich um einen Datentyp, der Text in Programmiersprachen darstellt. In der Programmierung ist eine Zeichenfolge eine kontinuierliche Folge von Symbolen oder Werten, beispielsweise eine Symbolzeichenfolge (eine Zeichenfolge) oder eine binäre Ziffernfolge (eine Folge binärer Ziffern).
Normalerweise wird die gesamte Zeichenfolge als Operationsobjekt verwendet, z. B.: Suchen einer Teilzeichenfolge in der Zeichenfolge, Abrufen einer Teilzeichenfolge, Einfügen einer Teilzeichenfolge an einer bestimmten Position in der Zeichenfolge, Löschen einer Teilzeichenfolge usw. Die notwendigen und hinreichenden Bedingungen für die Gleichheit zweier Zeichenfolgen sind: Die Längen sind gleich und die Zeichen an jeder entsprechenden Position sind gleich. Angenommen, p und q sind zwei Zeichenfolgen. Der Vorgang zum Finden der Position, an der q zum ersten Mal in p vorkommt, wird als Mustervergleich bezeichnet. Die beiden grundlegendsten Speichermethoden für Zeichenfolgen sind sequentielle Speicherung und verknüpfte Speicherung.
Das obige ist der detaillierte Inhalt vonWas bedeuten Zeichen und Zeichenfolgen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!