Sappiamo tutti che 0/0
è Undefined
e restituisce un errore se dovessi inserirlo in una calcolatrice e se dovessi creare un programma (almeno in C) il sistema operativo lo terminerebbe quando provo a dividere per zero.
Ma quello che mi chiedevo è se il computer tenta persino di dividere per zero , o ha solo "protezione integrata", in modo che quando "vede" 0/0
restituisce un errore anche prima di tentare di calcolarlo?