Tabellen nedan visar hur det decimala talet 1000000000000000 motsvarar det oktala talet 34327724461500000.
3 | × | 816 | = | 844424930131968 | |
+ | 4 | × | 815 | = | 140737488355328 |
+ | 3 | × | 814 | = | 13194139533312 |
+ | 2 | × | 813 | = | 1099511627776 |
+ | 7 | × | 812 | = | 481036337152 |
+ | 7 | × | 811 | = | 60129542144 |
+ | 2 | × | 810 | = | 2147483648 |
+ | 4 | × | 89 | = | 536870912 |
+ | 4 | × | 88 | = | 67108864 |
+ | 6 | × | 87 | = | 12582912 |
+ | 1 | × | 86 | = | 262144 |
+ | 5 | × | 85 | = | 163840 |
+ | 0 | × | 84 | = | 0 |
+ | 0 | × | 83 | = | 0 |
+ | 0 | × | 82 | = | 0 |
+ | 0 | × | 81 | = | 0 |
+ | 0 | × | 80 | = | 0 |
= | 1000000000000000 |
Oktala tal är ett positionsbaserat talsystem med basen 8, vilket betyder att det består av siffrorna 0, 1, 2, 3, 4, 5, 6 och 7. I det oktala systemet skriva talet 8 som 10.
Eftersom 8 är lika med 23 kan oktala siffror användas för att beskriva tre binära siffror. Detta användes frekvent förr i tiden för att beskriva data, då ordlängden i datorprocessorer ofta var en multipel av 3, såsom 6, 12 eller 24 bitar. I moderna datorer är ordlängden i regel en multipel av 8, såsom 32 eller 64 bitar, och därför passar hexadecimala siffror bättre idag för att beskriva data.
Det oktala systemet är inbyggt i många programmeringsspråk, och ett oktalt nummer kan ofta deklareras genom att inleda talet med 0. Du kan till exempel enkelt testa detta i JavaScript genom att öppna Konsolen i din webbläsare (i regel genom F12-tangenten) och skriva in 010. Webbläsaren kommer returnera talet 8. Om du skriver in 011 returneras 9, osv.