Sono confuso sul perché ci preoccupiamo di diverse rappresentazioni per zero positivo e negativo.
Ricordo vagamente la lettura di affermazioni secondo cui avere una rappresentazione zero negativa è estremamente importante nella programmazione che coinvolge numeri complessi. Non ho mai avuto l'opportunità di scrivere codice con numeri complessi, quindi sono un po 'confuso sul perché questo sarebbe il caso.
L'articolo di Wikipedia sul concetto non è particolarmente utile; fa solo vaghe affermazioni sullo zero con segno rendendo più semplici alcune operazioni matematiche in virgola mobile, se capisco correttamente. Questa risposta elenca un paio di funzioni che si comportano diversamente e forse si potrebbe dedurre dagli esempi se si ha familiarità con il modo in cui potrebbero essere utilizzate. (Anche se, l'esempio particolare delle complesse radici quadrate sembra completamente sbagliato, poiché i due numeri sono matematicamente equivalenti, a meno che non abbia un equivoco). Ma non sono stato in grado di trovare una chiara dichiarazione del tipo di problema che potresti incontrare se non ci fosse. Le maggiori risorse matematiche che sono riuscito a trovare affermano che non esiste alcuna distinzione tra i due da una prospettiva matematica e l'articolo di Wikipedia sembra suggerire che ciò sia visto raramente al di fuori dell'informatica oltre a descrivere i limiti.
Quindi, perché uno zero negativo è prezioso nell'informatica? Sono sicuro che mi sto perdendo qualcosa.
sqrt(-1+0i) = i
e sqrt(-1-0i) = -i
, sebbene vestito con una sintassi adeguata per alcuni linguaggi di programmazione, credo. Modificherò per essere più chiaro.