引用:
Originally posted by kkcity59
其實各類2byte字元,當初設計時,都已經考慮過跟ASCII共存的狀況
所以他沒有什麼判別的問題,或者是說判別所需的依據是早就設計了規範
電腦不是太慢的話,依照這種規範應該,對效能影響不會很大
問題是除了ASCII之外,其他各語系編碼,幾乎都沒考慮同時出現多語文的狀況
例如中日文共存的一篇文件...這就會比較麻煩了
|
看完kkcity59兄一系列的回答, 猜測 kkcity59兄應該是從 DOS 時代走過來的人吧?
東方語系的OS,ASCII Code 與 Double Byte Character Set (DBCS)是同時
共存的。如果我沒記錯的話, ASCII Code 與 Double Byte Character Set (DBCS)
同是 Multi-Byte Character Set (MBCS) 的 subset。
拿繁體中文OS 來說,在一段中英文字夾雜的字串中,OS 在讀到一個byte
時,若該 byte range 落在 0x00~0x007f 中就是 ASCII; 若不在這個 range 內,
就再往下讀一個字元(trail byte), 由所讀到的這兩個 bytes 來決定是那一個
中文字。以這種方式來顯示文字,當然是比不上全部以 ASCII 來顯示的速度,
但以現在硬體的速度, 再加上透過一些演算法(Algorithm)的優化,
在一般使用的狀況下, 是不太容易感覺的出來的。
以上是我對之前所 post 的,再多作詳細一點的解釋...