Hej! Kan man på något vis fixa så att javascript räknar rätt? Exempel från w3school: var x = 0.2 + 0.1; // x will be 0.30000000000000004 var x = (0.2 * 10 + 0.1 * 10) / 10; // x will be 0.3 Detta sättet är inte optimalt. Finns det något ännu bättre sätt? Jag har själv testat att göra om mina tal till heltal, göra beräkningarna med dessa och sedan göra om till decimaltal igen. Det blev inte så bra. Finns det någon som har en lösning på problemet? Tack på förhand Lars Lantz
|