Sembra che ci sia un refuso; Suppongo che intendi trovare che non è la somma di ( log n ) O ( 1 ) vettori tra v 1 , … , v m (non n ).u ∈ { 0 , 1 }n(logn)O(1)v1,…,vmn
Non mi è chiaro se una costante in funzioni per te. Se è possibile accontentarsi di somme inferiori a registro m vettori forse c'è qualcosa da fare. Ma se vuoi che questa quantità sia ( log m ) 1 + δ , allora penso che sia piuttosto difficile (ho lavorato su questo problema per molto tempo).(logn)O(1)logm(logm)1 + δ
Tuttavia potresti essere interessato a sapere che si tratta di un'istanza del problema dei punti remoti di Alon, Panigrahy e Yekhanin ("Algoritmi di approssimazione deterministica per il problema della parola chiave più vicina") per determinati parametri. Lascia che e v 1 , … , v m siano le colonne della matrice di controllo di parità di un codice lineare in { 0 , 1 } m di dimensione d = m - n (se questa matrice non aveva il rango completo, il il problema sarebbe banale). Quindi il tuo problema equivale a trovarti ∈ { 0 ,m > nv1, ... , vm{ 0 , 1 }md= m - n che è ( log n ) O ( 1 ) -lontano dal codice. Questa impostazione di parametri, in cui la dimensione è molto vicina a m, non è studiata nel documento. Tuttavia, possono solo raggiungere log di lontananza m fino alla dimensione d = c m per una costante c . In realtà, non penso di conoscere alcun certificato di dimensioni polinomiali che ci consenta didimostrareche un vettore è più di ω ( log m ) -lontano da uno spazio di dimensione Ω ( m )u ∈ { 0 , 1 }n( logn )O ( 1 )logmd= c mcω ( logm )Ω(m), figuriamoci trovarlo.
Un'altra connessione è con l'apprendimento delle parità nel modello legato agli errori. Se uno può imparare in modo efficiente -parities (definito su 0 , 1 m ) con errore associato strettamente inferiore a n , allora si possono impostare valori arbitrari sui primi n - 1 bit di u e `` force un errore '' sull'ultimo bit impostandolo sul valore opposto a quello previsto dallo studente. Questo sembra molto più forte però.(logn)O(1)0,1mnn−1u
Il problema è anche correlato alla separazione di EXP da alcune riduzioni a serie sparse.