为什么不用二进制1010表示十进制10,而是用0000000000001010表示?
我在看一个例题的时候,例题如下:
10
0000000000001010(10)
↓
)
1111111111110101(65525)
因此,10的值是65525.
我觉得如果十进制10用二进制1010表示,而不是用0000000000001010表示,答案就不同,我自己算的时候就是用1010表示十进制10.所以反码就是0101,所以~10=5.但我算的跟上面讲的不一样啊.