为什么不用二进制1010表示十进制10,而是用0000000000001010表示?

问题描述:

为什么不用二进制1010表示十进制10,而是用0000000000001010表示?
我在看一个例题的时候,例题如下:
10
0000000000001010 (10)


1111111111110101 (65525)
因此,10的值是65525.
我觉得如果十进制10用二进制1010表示,而不是用0000000000001010表示,答案就不同,我自己算的时候就是用1010表示十进制10.所以反码就是0101,所以~10=5.但我算的跟上面讲的不一样啊.

它这是16位表示法,即16位表示一个数,可表示的数的范围而就大了,按照你的想法是四位表示法,其实思路是一样的,只是数字表示的位数不同,在计算机里大多采用8位,16位或32位表示一个数,如果我没猜错,你这是计算机体系结构或微机原理的题吧~