Limiti inferiori sulla complessità gaussiana


18

Definire la complessità gaussiana di una matrice come numero minimo di operazioni elementari di riga e colonna necessarie per portare la matrice in forma triangolare superiore. Questa è una quantità compresa tra e (tramite l'eleminazione gaussiana). L'idea ha senso su qualsiasi campo.n×n0n2

Questo problema sembra certamente molto semplice e deve essere stato studiato. Sorprendentemente, non conosco riferimenti. Quindi, sarò felice con qualsiasi riferimento ci sia. Ma, naturalmente, la domanda principale è:

Sono noti limiti inferiori espliciti non banali?

Per non banale intendo superlineare. Giusto per essere chiari: su campi finiti un argomento di conteggio mostra che una matrice casuale ha un ordine di complessità n ^ 2 (un'affermazione simile dovrebbe essere vera su campi infiniti). Quindi, quello che stiamo cercando è una famiglia esplicita di matrici, ad esempio matrici Hadmard. Questo è lo stesso della complessità del circuito booleano in cui sappiamo che una funzione casuale ha un'elevata complessità, ma stiamo cercando funzioni esplicite con questa proprietà.


Non sono del tutto sicuro di quale sia la domanda qui. Stai chiedendo forme specifiche di matrici o il caso generale (nel qual caso un semplice argomento di conteggio sembra funzionare)?
Joe Fitzsimons,

@Joe, come detto, sto chiedendo una famiglia esplicita di matrici, ad esempio matrici Hadamard. Come al solito, le matrici casuali stanno tradendo. Questo è molto simile al fatto che non siamo contenti del fatto che una funzione casuale richieda circuiti di grandi dimensioni. Ho aggiunto un paragrafo per sottolineare questo punto.
Moritz,

forse questo dovrebbe essere ripubblicato come una risposta :)
Suresh Venkat,

Ok, lo farò.
Joe Fitzsimons,

In realtà, credo che il mio metodo potrebbe essere stato imperfetto.
Joe Fitzsimons il

Risposte:


17

Questo sembra essere un problema molto difficile, legato a uno più ampiamente studiato.

Supponiamo di considerare una matrice quadrata invertibile A e di definire c (A) come il numero minimo di operazioni di riga elementare necessarie per ridurre A alla matrice di identità. Questa misura di complessità è più ampia di quella suggerita da Moritz, quindi dimostrarne i limiti superlineari non può che essere più semplice.

Ora, le operazioni di riga sono reversibili . Ne consegue che c (A) può essere definito in modo equivalente come il numero minimo di operazioni di riga necessarie per produrre A, a partire dalla matrice identità.

Si noti che la produzione di A in questo modo dà origine a un circuito aritmetico per calcolare la mappa prendendo x in Ax. Il fanin di ogni gate è 2 e il numero di gate non di input corrisponde al numero di operazioni di riga.

Non vi è alcuna evidente riduzione della direzione inversa (dai circuiti alle sequenze di operazioni in fila). Tuttavia, possiamo caratterizzare c (A) in termini di complessità del circuito aritmetico di Ax in un modello di circuito limitato: sostengo che c (A) sia uguale alla metà del numero minimo di bordi in un circuito aritmetico per A, di fanin al massimo 2 e larghezza n, dove non addebitiamo costi per i bordi che conducono alle porte del fanin 1. (Qui sto usando la solita nozione di larghezza del circuito.) Questo può essere mostrato usando la semplice idea delineata in precedenza.

Ora ecco la connessione a problemi ben studiati: è stato un famoso problema aperto per oltre 30 anni esibire un'esplicita mappa lineare Ax (su qualsiasi campo finito) che richiede un numero superlineare di porte in un circuito fanin-2. Il riferimento classico è Valiant, "Argomenti teorico-grafici nella complessità di basso livello", e anche un recente sondaggio FTTCS di Lokam è utile.

Nello studio di c (A), stiamo imponendo un'ulteriore limitazione della larghezza, ma poiché la nostra restrizione è così debole (larghezza n) non prevedo che il problema diventerà molto più semplice. Ma hey - mi piacerebbe essere smentito.


2
Inoltre, Gowers sul suo blog ha avuto una discussione sulla complessità dell'eliminazione gaussiana. Non l'ho letto attentamente (è nella forma di un lungo dialogo), ma può essere utile: gowers.wordpress.com/2009/11/03/…
Andy Drucker,

Giusto per capirlo correttamente, la limitazione della larghezza arriva perché hai al massimo n operazioni per colonna e puoi procedere colonna per colonna?
Moritz,

Sto pensando in termini di operazioni di fila. La restrizione larghezza n corrisponde al fatto che abbiamo n righe su cui lavorare in cui tutto il nostro lavoro intermedio avrebbe luogo. Le porte del circuito n alla profondità t rappresentano gli stati delle n righe dopo t applicazioni di operazioni su file. (forse stai dicendo la stessa cosa di me)
Andy Drucker,

Se invece consentissimo righe extra di "spazio di lavoro ausiliario" nella nostra eliminazione gaussiana, credo che otterremmo una corrispondenza esatta tra la complessità della riduzione di A all'identità e la complessità del circuito aritmetico lineare di Ax (che è essenzialmente la complessità aritmetica ckt, poiché le moltiplicazioni non aiutano a calcolare le funzioni lineari oltre un fattore costante).
Andy Drucker,

Sì, questo è ciò che intendevo. Concordo anche con la seconda affermazione. Un circuito lineare generale può creare nuove righe ogni volta che vuole :-)
Moritz

9

Ci sono riferimenti e sono piuttosto vecchi. Mi sono imbattuto in loro mentre lavoravo su algoritmi combinatori per la moltiplicazione della matrice booleana.

Θ(n2/logn)logn

JW Moon e L. Moser. Un problema di riduzione della matrice. Matematica del calcolo 20 (94): 328– 330, 1966.

L'articolo dovrebbe essere accessibile su JSTOR.

Sono abbastanza sicuro che il limite inferiore sia solo un argomento di conteggio e non sono state fornite matrici esplicite che raggiungono il limite inferiore.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.