Vedo i seguenti possibili approcci di soluzione:
- Teoria pesante. So che c'è della letteratura su Life on a torus, ma non ne ho letto molto.
- Forza bruta in avanti: per ogni possibile tavola, controlla il suo punteggio. Questo è fondamentalmente ciò che gli approcci di Matthew e Keith fanno, sebbene Keith riduca il numero di board da controllare di un fattore 4.
- Ottimizzazione: rappresentazione canonica. Se riusciamo a verificare se una tavola è nella rappresentazione canonica molto più velocemente di quanto ci voglia per valutare il suo punteggio, otteniamo una accelerazione di un fattore di circa 8 N ^ 2. (Esistono anche approcci parziali con classi di equivalenza minori).
- Ottimizzazione: DP. Memorizza nella cache il punteggio per ogni tavola, in modo che, anziché attraversarli fino a quando non convergono o divergono, camminiamo fino a trovare una tavola che abbiamo visto prima. In linea di principio, ciò darebbe un'accelerazione di un fattore della durata media del punteggio / ciclo (forse 20 o più), ma in pratica è probabile che stiamo scambiando pesantemente. Ad esempio per N = 6 avremmo bisogno di capacità per 2 ^ 36 punteggi, che a un byte per punteggio è 16 GB e abbiamo bisogno di un accesso casuale quindi non possiamo aspettarci una buona localizzazione della cache.
- Combina i due. Per N = 6, la rappresentazione canonica completa ci consentirebbe di ridurre la cache DP a circa 60 mega-punteggi. Questo è un approccio promettente.
- Forza bruta all'indietro. All'inizio questo sembra strano, ma se assumiamo che possiamo facilmente trovare nature morte e che possiamo facilmente invertire la
Next(board)
funzione, vediamo che ha alcuni benefici, anche se non quanti speravo inizialmente.
- Non ci preoccupiamo affatto di schede divergenti. Non molto di risparmio, perché sono piuttosto rari.
- Non è necessario memorizzare i punteggi per tutte le schede, quindi dovrebbe esserci una pressione di memoria inferiore rispetto all'approccio DP in avanti.
- Lavorare all'indietro è in realtà abbastanza semplice variando una tecnica che ho visto in letteratura nel contesto dell'enumerazione di nature morte. Funziona trattando ogni colonna come una lettera in un alfabeto e quindi osservando che una sequenza di tre lettere determina quella centrale nella generazione successiva. Il parallelo con l'enumerazione nature morte è così vicino che li ho refactoring insieme in un metodo solo leggermente scomodo,
Prev2
.
- Potrebbe sembrare che possiamo solo canonicalizzare le nature morte e ottenere qualcosa come l'accelerazione 8N ^ 2 per un costo molto basso. Tuttavia, empiricamente otteniamo ancora una grande riduzione del numero di schede considerate se possiamo canonicalizzare ad ogni passo.
- Una percentuale sorprendentemente alta di schede ha un punteggio di 2 o 3, quindi c'è ancora pressione della memoria. Ho trovato necessario canonicalizzare al volo piuttosto che costruire la generazione precedente e poi canonicalizzare. Potrebbe essere interessante ridurre l'utilizzo della memoria eseguendo una ricerca approfondita in primo luogo anziché approfondita, ma farlo senza traboccare lo stack e senza eseguire calcoli ridondanti richiede un approccio di routine / continuazione per enumerare le schede precedenti.
Non penso che la micro-ottimizzazione mi consentirà di recuperare il ritardo con il codice di Keith, ma per motivi di interesse pubblicherò ciò che ho. Questo risolve N = 5 in circa un minuto su una macchina da 2 GHz usando Mono 2.4 o .Net (senza PLINQ) e in circa 20 secondi usando PLINQ; N = 6 funziona per molte ore.
using System;
using System.Collections.Generic;
using System.Linq;
namespace Sandbox {
class Codegolf9393 {
internal static void Main() {
new Codegolf9393(4).Solve();
}
private readonly int _Size;
private readonly uint _AlphabetSize;
private readonly uint[] _Transitions;
private readonly uint[][] _PrevData1;
private readonly uint[][] _PrevData2;
private readonly uint[,,] _CanonicalData;
private Codegolf9393(int size) {
if (size > 8) throw new NotImplementedException("We need to fit the bits in a ulong");
_Size = size;
_AlphabetSize = 1u << _Size;
_Transitions = new uint[_AlphabetSize * _AlphabetSize * _AlphabetSize];
_PrevData1 = new uint[_AlphabetSize * _AlphabetSize][];
_PrevData2 = new uint[_AlphabetSize * _AlphabetSize * _AlphabetSize][];
_CanonicalData = new uint[_Size, 2, _AlphabetSize];
InitTransitions();
}
private void InitTransitions() {
HashSet<uint>[] tmpPrev1 = new HashSet<uint>[_AlphabetSize * _AlphabetSize];
HashSet<uint>[] tmpPrev2 = new HashSet<uint>[_AlphabetSize * _AlphabetSize * _AlphabetSize];
for (int i = 0; i < tmpPrev1.Length; i++) tmpPrev1[i] = new HashSet<uint>();
for (int i = 0; i < tmpPrev2.Length; i++) tmpPrev2[i] = new HashSet<uint>();
for (uint i = 0; i < _AlphabetSize; i++) {
for (uint j = 0; j < _AlphabetSize; j++) {
uint prefix = Pack(i, j);
for (uint k = 0; k < _AlphabetSize; k++) {
// Build table for forwards checking
uint jprime = 0;
for (int l = 0; l < _Size; l++) {
uint count = GetBit(i, l-1) + GetBit(i, l) + GetBit(i, l+1) + GetBit(j, l-1) + GetBit(j, l+1) + GetBit(k, l-1) + GetBit(k, l) + GetBit(k, l+1);
uint alive = GetBit(j, l);
jprime = SetBit(jprime, l, (count == 3 || (alive + count == 3)) ? 1u : 0u);
}
_Transitions[Pack(prefix, k)] = jprime;
// Build tables for backwards possibilities
tmpPrev1[Pack(jprime, j)].Add(k);
tmpPrev2[Pack(jprime, i, j)].Add(k);
}
}
}
for (int i = 0; i < tmpPrev1.Length; i++) _PrevData1[i] = tmpPrev1[i].ToArray();
for (int i = 0; i < tmpPrev2.Length; i++) _PrevData2[i] = tmpPrev2[i].ToArray();
for (uint col = 0; col < _AlphabetSize; col++) {
_CanonicalData[0, 0, col] = col;
_CanonicalData[0, 1, col] = VFlip(col);
for (int rot = 1; rot < _Size; rot++) {
_CanonicalData[rot, 0, col] = VRotate(_CanonicalData[rot - 1, 0, col]);
_CanonicalData[rot, 1, col] = VRotate(_CanonicalData[rot - 1, 1, col]);
}
}
}
private ICollection<ulong> Prev2(bool stillLife, ulong next, ulong prev, int idx, ICollection<ulong> accum) {
if (stillLife) next = prev;
if (idx == 0) {
for (uint a = 0; a < _AlphabetSize; a++) Prev2(stillLife, next, SetColumn(0, idx, a), idx + 1, accum);
}
else if (idx < _Size) {
uint i = GetColumn(prev, idx - 2), j = GetColumn(prev, idx - 1);
uint jprime = GetColumn(next, idx - 1);
uint[] succ = idx == 1 ? _PrevData1[Pack(jprime, j)] : _PrevData2[Pack(jprime, i, j)];
foreach (uint b in succ) Prev2(stillLife, next, SetColumn(prev, idx, b), idx + 1, accum);
}
else {
// Final checks: does the loop round work?
uint a0 = GetColumn(prev, 0), a1 = GetColumn(prev, 1);
uint am = GetColumn(prev, _Size - 2), an = GetColumn(prev, _Size - 1);
if (_Transitions[Pack(am, an, a0)] == GetColumn(next, _Size - 1) &&
_Transitions[Pack(an, a0, a1)] == GetColumn(next, 0)) {
accum.Add(Canonicalise(prev));
}
}
return accum;
}
internal void Solve() {
DateTime start = DateTime.UtcNow;
ICollection<ulong> gen = Prev2(true, 0, 0, 0, new HashSet<ulong>());
for (int depth = 1; gen.Count > 0; depth++) {
Console.WriteLine("Length {0}: {1}", depth, gen.Count);
ICollection<ulong> nextGen;
#if NET_40
nextGen = new HashSet<ulong>(gen.AsParallel().SelectMany(board => Prev2(false, board, 0, 0, new HashSet<ulong>())));
#else
nextGen = new HashSet<ulong>();
foreach (ulong board in gen) Prev2(false, board, 0, 0, nextGen);
#endif
// We don't want the still lifes to persist or we'll loop for ever
if (depth == 1) {
foreach (ulong stilllife in gen) nextGen.Remove(stilllife);
}
gen = nextGen;
}
Console.WriteLine("Time taken: {0}", DateTime.UtcNow - start);
}
private ulong Canonicalise(ulong board)
{
// Find the minimum board under rotation and reflection using something akin to radix sort.
Isomorphism canonical = new Isomorphism(0, 1, 0, 1);
for (int xoff = 0; xoff < _Size; xoff++) {
for (int yoff = 0; yoff < _Size; yoff++) {
for (int xdir = -1; xdir <= 1; xdir += 2) {
for (int ydir = 0; ydir <= 1; ydir++) {
Isomorphism candidate = new Isomorphism(xoff, xdir, yoff, ydir);
for (int col = 0; col < _Size; col++) {
uint a = canonical.Column(this, board, col);
uint b = candidate.Column(this, board, col);
if (b < a) canonical = candidate;
if (a != b) break;
}
}
}
}
}
ulong canonicalValue = 0;
for (int i = 0; i < _Size; i++) canonicalValue = SetColumn(canonicalValue, i, canonical.Column(this, board, i));
return canonicalValue;
}
struct Isomorphism {
int xoff, xdir, yoff, ydir;
internal Isomorphism(int xoff, int xdir, int yoff, int ydir) {
this.xoff = xoff;
this.xdir = xdir;
this.yoff = yoff;
this.ydir = ydir;
}
internal uint Column(Codegolf9393 _this, ulong board, int col) {
uint basic = _this.GetColumn(board, xoff + col * xdir);
return _this._CanonicalData[yoff, ydir, basic];
}
}
private uint VRotate(uint col) {
return ((col << 1) | (col >> (_Size - 1))) & (_AlphabetSize - 1);
}
private uint VFlip(uint col) {
uint replacement = 0;
for (int row = 0; row < _Size; row++)
replacement = SetBit(replacement, row, GetBit(col, _Size - row - 1));
return replacement;
}
private uint GetBit(uint n, int bit) {
bit %= _Size;
if (bit < 0) bit += _Size;
return (n >> bit) & 1;
}
private uint SetBit(uint n, int bit, uint value) {
bit %= _Size;
if (bit < 0) bit += _Size;
uint mask = 1u << bit;
return (n & ~mask) | (value == 0 ? 0 : mask);
}
private uint Pack(uint a, uint b) { return (a << _Size) | b; }
private uint Pack(uint a, uint b, uint c) {
return (((a << _Size) | b) << _Size) | c;
}
private uint GetColumn(ulong n, int col) {
col %= _Size;
if (col < 0) col += _Size;
return (_AlphabetSize - 1) & (uint)(n >> (col * _Size));
}
private ulong SetColumn(ulong n, int col, uint value) {
col %= _Size;
if (col < 0) col += _Size;
ulong mask = (_AlphabetSize - 1) << (col * _Size);
return (n & ~mask) | (((ulong)value) << (col * _Size));
}
}
}