Gli equilibri di Nash sono ineguagliabili in generale. Un equilibrio Nash è un insieme di strategie in cui, date le strategie degli avversari, ciascun giocatore ottiene entro il massimo profitto possibile previsto. Trovare un -Nash di equilibrio, dato e un gioco, è -Complete.
Andando rigorosamente dalle definizioni, non sembra esserci alcuna ragione particolare per credere che le strategie di un dato -Nash equilibrio sono da nessuna parte vicino alle strategie di qualsiasi equilibrio di Nash. Tuttavia, spesso vediamo che la letteratura usa in qualche modo in modo sciatto una frase come "calcola approssimativamente un equilibrio di Nash" quando significa dire "calcola un equilibrio di Nash approssimativo".
Quindi, mi chiedo quando il secondo implica il primo; cioè per quello che i giochi potremmo aspettarci -Nash equilibri di essere "vicino" a equilibri di Nash?
Più formalmente, supponiamo che io abbia un gioco su giocatori e una sequenza di profili di strategia .
Ciascuno è un equilibrio di Nash e la sequenza converge a zero.
Le mie domande:
Quando (in quali condizioni / ipotesi) convergono tutte le strategie? Cioè, per ogni giocatore , s ( 1 ) j , s ( 2 ) j , s ( 3 ) j , ... converge necessariamente.
In quali ulteriori condizioni il limite di questa sequenza è in realtà un equilibrio di Nash del gioco? (Mi sembra che non dovrebbero essere necessarie ulteriori ipotesi; cioè , se tutte le strategie convergono, il limite dovrebbe essere un NE.)
Quando si fa un algoritmo per il calcolo -Nash equilibri implicano necessariamente un algoritmo per le strategie di un equilibrio di Nash circa computing? Le condizioni di cui sopra sono sufficienti?
Grazie mille!
Modifica 19-03-2014
Dopo aver letto il riferimento nella risposta di Rahul, sembra più ragionevole pensare in termini di distanze tra distribuzioni piuttosto che sequenze convergenti. Quindi proverò a riformulare le domande e farò anche alcuni pensieri recenti.
(Beh, questo è troppo dipendente dall'algoritmo per avere davvero una risposta. Senza restrizioni sull'algoritmo, potresti avere due equilibri di Nash distinti e quindi, quando colleghi un più piccolo nell'algoritmo, la distanza ℓ 1 tra le uscite successive potrebbe essere ancora grande perché le uscite oscillano tra gli equilibri.)
q δ → 0 ϵ → 0 1
Questo in realtà è complicato perché nella complessità che definisce ciò che chiamiamo "gioco" è in realtà una sequenza di giochi parametrizzata da , il numero di strategie pure ("azioni"). Quindi come , e le tariffe relative sono importanti. Ecco un semplice controesempio per mostrare che la risposta non è "tutti i giochi". Supponiamo di correggere una sequenza di decrescenti . Quindi per ogni , costruisci la partita a due giocatori su azioni in cui, se un giocatore gioca la prima azione, ottengono un payoff di indipendentemente da ciò che gioca l'altro giocatore; se un giocatore gioca la seconda azione, ottiene un payoff din → ∞ ϵ → 0 ϵ 1 , ϵ 2 , … ϵ n n 1 1 - ϵ n 0indipendentemente da ciò che l'altro giocatore gioca; e se un giocatore gioca qualsiasi altra azione, ottiene un payoff di indipendentemente da ciò che l'altro giocatore gioca.
Quindi ogni gioco ha un -equilibrium (entrambi giocano la seconda azione) che è al massimo lontano distanza dal suo unico equilibrio Nash (entrambi giocano la prima azione).ϵ n ℓ 1
Quindi, due interessanti sotto-domande:
- Per un gioco fisso e fisso , sia per "abbastanza piccolo" vale la condizione di cui sopra (tutti gli equilibri sono vicini agli equilibri di Nash).ϵ ϵ
- Forse essenzialmente la stessa domanda, ma se la condizione vale se le differenze nei payoff sono delimitate da una costante da .
Stessa domanda di (2), ma relativa agli equilibri effettivi calcolati dagli algoritmi. Suppongo che probabilmente otterremo risposte algoritmiche / costruttive o nessuna, quindi la distinzione non conta molto.