美国人首先对其英文字符进行了编码,也就是最早的ascii码,用一个字节的低7位来表示英文的128个字符,高1位统一为0;
后来欧洲人发现你这128位哪够用,比如法国人字母上面的还有注音符,这个怎么区分,于是把高1位编进来吧,这样欧洲普遍使用一个全字节进行编码,最多可表示256位。
但是即使位数少,不同国家地区用不同的字符编码,虽然0–127表示的符号是一样的,但是128–255这一段的解释完全乱套了,即使2进制完全一样,表示的字符完全不一样,比如135在法语,希伯来语,俄语编码中完全是不同的符号;(这样同一个文件不同的软件读取出来的字符就会不一样)
更麻烦的是,这编码传到中国后,中国人发现我们有10万多个汉字,你们欧美这256字塞牙缝都不够。于是就发明了GB2312这些汉字编码,典型的用2个字节来表示绝大部分的常用汉字,最多可以表示65536个汉字字符,这样就不难理解有些汉字你在新华字典里查得到,但是电脑上如果不处理一下你是显示不出来的了吧。
这下各用各的字符集编码,这世界咋统一?俄国人发封email给中国人,两边字符集编码不同,尼玛显示都是乱码啊。为了统一,于是就发明了unicode,将世界上所有的符号都纳入其中,每一个符号都给予一个独一无二的编码,现在unicode可以容纳100多万个符号,每个符号的编码都不一样,这下可统一了,所有语言都可以互通,一个网页页面里可以同时显示各国文字。
然而,unicode虽然统一了全世界字符的二进制编码,但没有规定如何存储啊。x86和amd体系结构的电脑小端序和大端序都分不清,别提计算机如何识别到底是unicode还是acsii了。如果Unicode统一规定,每个符号用三个或四个字节表示,那么每个英文字母前都必然有二到三个字节是0,文本文件的大小会因此大出二三倍,这对于存储来说是极大的浪费。这样导致一个后果:出现了Unicode的多种存储方式。
互联网的兴起,网页上要显示各种字符,必须统一。utf-8就是Unicode最重要的实现方式之一。另外还有utf-16、utf-32等。UTF-8不是固定字长编码的,而是一种变长的编码方式。它可以使用1~4个字节表示一个符号,根据不同的符号而变化字节长度。这是种比较巧妙的设计,如果一个字节的第一位是0,则这个字节单独就是一个字符;如果第一位是1,则连续有多少个1,就表示当前字符占用多少个字节。
注意unicode的字符编码和utf-8的存储编码表示是不同的,例如”严”字的Unicode码是4E25,UTF-8编码是E4B8A5,这个7里面解释了的,UTF-8编码不仅考虑了编码,还考虑了存储,E4B8A5是在存储识别编码的基础上塞进了4E25。
UTF-8 使用一至四个字节为每个字符编码。128 个 ASCII 字符(Unicode 范围由 U+0000 至 U+007F)只需一个字节,带有变音符号的拉丁文、希腊文、西里尔字母、亚美尼亚语、希伯来文、阿拉伯文、叙利亚文及马尔代夫语(Unicode 范围由 U+0080 至 U+07FF)需要二个字节,其他基本多文种平面(BMP)中的字符(CJK属于此类-Qieqie注)使用三个字节,其他 Unicode 辅助平面的字符使用四字节编码。
.Net 6下默认的编码变成了 UTF8了。
(中文一个字符会有三个字节。占的体积比较大,所以常用的编码是GB2312, 或者 GB18030兼容GB2312)
.Net 6 默认情况下 没有 GB2312 的编码了。
如果我们要使用 GB2312的话 就得使用下面的这个代码来注册编码
如果不能用的话 用nuget装一下 System.Text.Encoding.CodePages
Encoding.RegisterProvider(CodePagesEncodingProvider.Instance);
如果一个文件存储的编码是GB2312 或者Unicode 然后我们用UTF-8来打开。这个时候是会出错的。 跟其它国家有传送文件的时候,要记得编码最好是用UTF-8
using System.Text;
var path = "D:\\ma-le-ma.txt";
Encoding.RegisterProvider(CodePagesEncodingProvider.Instance);
// 写入文件
using (var sw = new StreamWriter(path, false, Encoding.GetEncoding("gb2312")))
{
sw.WriteLine("码了么测试");
sw.WriteLine("qq");
sw.WriteLine("google");
sw.WriteLine("ma le ma");
}
//全部读取出来。得到的是乱码。
using (var sr = new StreamReader(path, Encoding.UTF8))
{
Console.WriteLine(sr.ReadToEnd());
}
得到的结果 中文全部变成了 ?
?????????
qq
google
ma le ma
同样的如果我们用Httpclient 去获取数据,这个时候如果得到的数据是乱码的话。也是有可能由于这个编译不对造成的。
var bytes = Encoding.UTF8.GetBytes("码了么");
Console.WriteLine(bytes.Length + " " + Convert.ToHexString(bytes));
会输出 9 E7A081E4BA86E4B988
E7A081 E4BA86 E4B988