forse tutti gli algoritmi principali / preferiti di interesse per questo pubblico sono stati citati a questo punto. tuttavia, alcuni altri meritano menzione per completezza. e alcune analisi di ciò che è considerato un algoritmo significativo sono rilevanti qui.
nei settori CS e IT sembra esserci un fenomeno notato molto tempo fa nell'intelligenza artificiale chiamato "spostare i pali della porta" . questo è un fenomeno psicologico in cui il campo avanza relativamente rapidamente ma le persone si adattano rapidamente mentalmente alla "nuova normalità" e intraprendono progressi reali o addirittura rivoluzionari come banali o irrilevanti in retrospettiva, dopo averlo compiuto, cioè minimizzato o minimizzato. questo è fortemente catturato in questa domanda dal modo in cui gli algoritmi passano dalla R&S alla "distribuzione". citando l'autore della domanda nei commenti successivi:
In effetti, una frazione trascurabile di tutto il codice che viene scritto sta implementando tutto ciò che è interessante da un punto di vista algoritmico.
ma questo è problematico e sostanzialmente una ridefinizione incentrata sul TCS della parola "algoritmo". presumibilmente gli algoritmi interessanti sono avanzati. significa che se un problema si riduce a un algoritmo avanzato, non è più "interessante"? e "avanzato" è chiaramente un obiettivo mobile. quindi esiste un modo per definire "algoritmi" in modo restrittivo o ampio . sembra che la definizione di TCS cambi in base al contesto, ma nota anche in TCS, c'è una tendenza verso l' ampia definizione, ad esempio nella cosiddetta "lente algoritmica" .
a volte gli algoritmi più onnipresenti sono anche i più trascurati! Internet e il WWW sono un grande ambiente / quasi ecologia per gli algoritmi. ancora relativamente giovane a soli circa 2 decenni (inventato ~ 1991) è cresciuto in modo massiccio ed esponenziale in un breve lasso di tempo. La crescita del sito del WWW ha probabilmente persino superato la famosa legge esponenziale di Moores.
Internet / WWW sono supportati da molti sofisticati algoritmi. Internet ha algoritmi di routing complessi integrati nei router (che alimentano di nuovo aziende multimiliardarie come Cisco). qualche teoria avanzata è applicabile lì, ad esempio negli algoritmi di routing . questi algoritmi sono stati oggetto di ricerche emergenti, avanzate / all'avanguardia decenni fa, tuttavia ora sono così precisi e ben compresi che sono in qualche modo invisibili.
non dovremmo dimenticare così presto che decenni fa, i principali ricercatori non erano nemmeno sicuri che il mondo di Internet funzionasse o fosse possibile (visto nella prima ricerca sulla commutazione di pacchetti, un nuovo modello di progettazione radicale all'epoca in partenza rispetto alla precedente commutazione di circuito), e anche qualche anno fa si temeva che non sarebbe riuscito a ridimensionarsi a un certo punto e avrebbe iniziato a fallire a causa di picchi di volume travolgenti.
utilizza inoltre un sofisticato rilevamento / correzione degli errori . Internet è probabilmente il sistema più grande e più tollerante ai guasti mai costruito dagli umani, ancora in crescita.
poi, c'è un caso valido per far avanzare gli algoritmi che alimentano il WWW. I server HTTP e Web sono altamente ottimizzati / ottimizzati e utilizzano anche protocolli avanzati di sicurezza / crittografia (HTTPS). la logica di rendering di una pagina Web è diventata estremamente avanzata in HTML5 e CSS3 , insieme al linguaggio di programmazione Javascript .
il CSS relativamente nuovo ha vari principi simili alla programmazione OOP come la riusabilità e l'ereditarietà. parlando di composizione tipografica, TeX è un importante sistema di composizione scientifica internamente complesso (non così diverso da un linguaggio di programmazione) inventato da Knuth che ora può essere reso su pagine web (ed è usato forse in centinaia di migliaia di articoli scientifici o più).
un'altra area relativamente nuova di algoritmi che si sviluppa su Internet, ancora emergente, quella basata sull'intelligenza collettiva . Il software stackexchange stesso è un esempio di un sofisticato sistema di intelligenza collettiva. il social network mostra anche le caratteristiche chiave dell'intelligenza collettiva e le funzioni vengono continuamente aggiunte per aumentare tale intelligenza (ad esempio i "Mi piace" di Facebook hanno solo pochi anni). il campo dei sistemi di classificazione si basa su algoritmi di filtraggio collaborativo e si sta ancora evolvendo sulla base di nuove ricerche e applicazioni.
quindi in breve, tutti i successi rivoluzionari che trasformano l'esperienza umana quotidiana in realtà piuttosto al di là dei semplici "obiettivi sul campo". come afferma il titolo della domanda, tutti gli algoritmi core distribuiti . ora così onnipresente e invisibile da essere qualcosa di simile all'espressione IT, "parte dell'impianto idraulico".