在JavaScript中,如果判断0.1 + 0.2 === 0.3,结果是false,

这是怎么回事呢?0.1 + 0.2竟然不等于0.3?是程序出问题了吗?

两者相加之后得到二进制为再转换为十进制,会产生误差。

原来JavaScript采用的是IEEE754的64位双精度版本,由三部分组成:

是无限循环小数,而在JavaScript中只能存储52位小数,那么0.1的小数位在第52位时就需要判读进位(第53位为1就+1,为0则不进位),则0.1在JavaScript中存储的实际为:

不需要进位。

那么将0.1和0.2在JavaScript中存储的表示值相加得到:

这样看来,程序并没有出问题,这是由于浮点数精度问题造成的,不仅是JavaScript,所有采用IEEE754的64位双精度的语言都是如此。

在JavaScript中,可用原生办法解决:

想办法规避掉这类小数计算时的精度问题就好了,那么最常用的方法就是将浮点数转化成整数计算。因为整数都是可以精确表示的。