Widzę następujące możliwe rozwiązania:
- Ciężka teoria. Wiem, że jest trochę literatury na temat życia na torusie, ale nie przeczytałem zbyt wiele.
- Brute force forward: dla każdej możliwej planszy sprawdź jej wynik. Tak właśnie robią podejścia Matthew i Keitha, chociaż Keith zmniejsza liczbę plansz do sprawdzenia czterokrotnie.
- Optymalizacja: reprezentacja kanoniczna. Jeśli możemy sprawdzić, czy tablica jest reprezentacją kanoniczną znacznie szybciej niż potrzeba do oceny jej wyniku, otrzymamy przyspieszenie o współczynnik około 8N ^ 2. (Istnieją również podejścia częściowe z mniejszymi klasami równoważności).
- Optymalizacja: DP. Przechowuj w pamięci podręcznej wynik dla każdej planszy, aby zamiast przechodzić przez nią, aż się zbiegną lub rozejdą, po prostu idź, aż znajdziemy tablicę, którą widzieliśmy wcześniej. Zasadniczo dałoby to przyspieszenie o współczynnik średniej długości wyniku / cyklu (może 20 lub więcej), ale w praktyce prawdopodobnie będziemy mocno zamieniać. Np. Dla N = 6 potrzebowalibyśmy pojemności na 2 ^ 36 wyników, co przy bajcie na wynik to 16 GB, i potrzebujemy dostępu losowego, więc nie możemy oczekiwać dobrej lokalizacji pamięci podręcznej.
- Połącz dwa. Dla N = 6 pełna reprezentacja kanoniczna pozwoliłaby nam zredukować pamięć podręczną DP do około 60 megapunktów. To obiecujące podejście.
- Brutalna siła do tyłu. Z początku wydaje się to dziwne, ale jeśli założymy, że możemy łatwo znaleźć martwe natury i że możemy łatwo odwrócić
Next(board)
funkcję, widzimy, że ma ona pewne zalety, chociaż nie tak wiele, jak początkowo miałem nadzieję.
- W ogóle nie zawracamy sobie głowy rozbieżnymi deskami. Niewiele oszczędności, ponieważ są dość rzadkie.
- Nie musimy przechowywać wyników dla wszystkich płyt, więc presja pamięci powinna być mniejsza niż podejście DP do przodu.
- Praca wstecz jest właściwie dość łatwa, zmieniając technikę, którą widziałem w literaturze w kontekście wyliczania martwych natur. Działa, traktując każdą kolumnę jako literę w alfabecie, a następnie obserwując, że ciąg trzech liter określa środkową w następnym pokoleniu. Równolegle z wyliczanie martwe natury jest tak blisko, że już refactored je razem w metodzie tylko nieco niewygodne,
Prev2
.
- Mogłoby się wydawać, że możemy po prostu kanonizować martwe natury i uzyskać coś w rodzaju przyspieszenia 8N ^ 2 za niewielką opłatą. Jednak empirycznie nadal uzyskujemy znaczną redukcję liczby rozpatrywanych plansz, jeśli kanonizujemy na każdym etapie.
- Zaskakująco wysoki odsetek płyt ma wynik 2 lub 3, więc nadal występuje presja pamięci. Uznałem za konieczne kanonizowanie w locie zamiast budowania poprzedniej generacji, a następnie kanonizowanie. Interesujące może być zmniejszenie zużycia pamięci przez wyszukiwanie w pierwszej kolejności, a nie w pierwszej kolejności, ale robienie tego bez przepełnienia stosu i bez przeprowadzania zbędnych obliczeń wymaga podejścia rutynowego / kontynuacji do wyliczania poprzednich płyt.
Nie sądzę, że mikrooptymalizacja pozwoli mi dogonić kod Keitha, ale ze względu na zainteresowanie opublikuję to, co mam. To rozwiązuje N = 5 w ciągu około minuty na maszynie 2 GHz przy użyciu Mono 2.4 lub .Net (bez PLINQ) i po około 20 sekundach przy użyciu PLINQ; N = 6 uruchomień przez wiele godzin.
using System;
using System.Collections.Generic;
using System.Linq;
namespace Sandbox {
class Codegolf9393 {
internal static void Main() {
new Codegolf9393(4).Solve();
}
private readonly int _Size;
private readonly uint _AlphabetSize;
private readonly uint[] _Transitions;
private readonly uint[][] _PrevData1;
private readonly uint[][] _PrevData2;
private readonly uint[,,] _CanonicalData;
private Codegolf9393(int size) {
if (size > 8) throw new NotImplementedException("We need to fit the bits in a ulong");
_Size = size;
_AlphabetSize = 1u << _Size;
_Transitions = new uint[_AlphabetSize * _AlphabetSize * _AlphabetSize];
_PrevData1 = new uint[_AlphabetSize * _AlphabetSize][];
_PrevData2 = new uint[_AlphabetSize * _AlphabetSize * _AlphabetSize][];
_CanonicalData = new uint[_Size, 2, _AlphabetSize];
InitTransitions();
}
private void InitTransitions() {
HashSet<uint>[] tmpPrev1 = new HashSet<uint>[_AlphabetSize * _AlphabetSize];
HashSet<uint>[] tmpPrev2 = new HashSet<uint>[_AlphabetSize * _AlphabetSize * _AlphabetSize];
for (int i = 0; i < tmpPrev1.Length; i++) tmpPrev1[i] = new HashSet<uint>();
for (int i = 0; i < tmpPrev2.Length; i++) tmpPrev2[i] = new HashSet<uint>();
for (uint i = 0; i < _AlphabetSize; i++) {
for (uint j = 0; j < _AlphabetSize; j++) {
uint prefix = Pack(i, j);
for (uint k = 0; k < _AlphabetSize; k++) {
// Build table for forwards checking
uint jprime = 0;
for (int l = 0; l < _Size; l++) {
uint count = GetBit(i, l-1) + GetBit(i, l) + GetBit(i, l+1) + GetBit(j, l-1) + GetBit(j, l+1) + GetBit(k, l-1) + GetBit(k, l) + GetBit(k, l+1);
uint alive = GetBit(j, l);
jprime = SetBit(jprime, l, (count == 3 || (alive + count == 3)) ? 1u : 0u);
}
_Transitions[Pack(prefix, k)] = jprime;
// Build tables for backwards possibilities
tmpPrev1[Pack(jprime, j)].Add(k);
tmpPrev2[Pack(jprime, i, j)].Add(k);
}
}
}
for (int i = 0; i < tmpPrev1.Length; i++) _PrevData1[i] = tmpPrev1[i].ToArray();
for (int i = 0; i < tmpPrev2.Length; i++) _PrevData2[i] = tmpPrev2[i].ToArray();
for (uint col = 0; col < _AlphabetSize; col++) {
_CanonicalData[0, 0, col] = col;
_CanonicalData[0, 1, col] = VFlip(col);
for (int rot = 1; rot < _Size; rot++) {
_CanonicalData[rot, 0, col] = VRotate(_CanonicalData[rot - 1, 0, col]);
_CanonicalData[rot, 1, col] = VRotate(_CanonicalData[rot - 1, 1, col]);
}
}
}
private ICollection<ulong> Prev2(bool stillLife, ulong next, ulong prev, int idx, ICollection<ulong> accum) {
if (stillLife) next = prev;
if (idx == 0) {
for (uint a = 0; a < _AlphabetSize; a++) Prev2(stillLife, next, SetColumn(0, idx, a), idx + 1, accum);
}
else if (idx < _Size) {
uint i = GetColumn(prev, idx - 2), j = GetColumn(prev, idx - 1);
uint jprime = GetColumn(next, idx - 1);
uint[] succ = idx == 1 ? _PrevData1[Pack(jprime, j)] : _PrevData2[Pack(jprime, i, j)];
foreach (uint b in succ) Prev2(stillLife, next, SetColumn(prev, idx, b), idx + 1, accum);
}
else {
// Final checks: does the loop round work?
uint a0 = GetColumn(prev, 0), a1 = GetColumn(prev, 1);
uint am = GetColumn(prev, _Size - 2), an = GetColumn(prev, _Size - 1);
if (_Transitions[Pack(am, an, a0)] == GetColumn(next, _Size - 1) &&
_Transitions[Pack(an, a0, a1)] == GetColumn(next, 0)) {
accum.Add(Canonicalise(prev));
}
}
return accum;
}
internal void Solve() {
DateTime start = DateTime.UtcNow;
ICollection<ulong> gen = Prev2(true, 0, 0, 0, new HashSet<ulong>());
for (int depth = 1; gen.Count > 0; depth++) {
Console.WriteLine("Length {0}: {1}", depth, gen.Count);
ICollection<ulong> nextGen;
#if NET_40
nextGen = new HashSet<ulong>(gen.AsParallel().SelectMany(board => Prev2(false, board, 0, 0, new HashSet<ulong>())));
#else
nextGen = new HashSet<ulong>();
foreach (ulong board in gen) Prev2(false, board, 0, 0, nextGen);
#endif
// We don't want the still lifes to persist or we'll loop for ever
if (depth == 1) {
foreach (ulong stilllife in gen) nextGen.Remove(stilllife);
}
gen = nextGen;
}
Console.WriteLine("Time taken: {0}", DateTime.UtcNow - start);
}
private ulong Canonicalise(ulong board)
{
// Find the minimum board under rotation and reflection using something akin to radix sort.
Isomorphism canonical = new Isomorphism(0, 1, 0, 1);
for (int xoff = 0; xoff < _Size; xoff++) {
for (int yoff = 0; yoff < _Size; yoff++) {
for (int xdir = -1; xdir <= 1; xdir += 2) {
for (int ydir = 0; ydir <= 1; ydir++) {
Isomorphism candidate = new Isomorphism(xoff, xdir, yoff, ydir);
for (int col = 0; col < _Size; col++) {
uint a = canonical.Column(this, board, col);
uint b = candidate.Column(this, board, col);
if (b < a) canonical = candidate;
if (a != b) break;
}
}
}
}
}
ulong canonicalValue = 0;
for (int i = 0; i < _Size; i++) canonicalValue = SetColumn(canonicalValue, i, canonical.Column(this, board, i));
return canonicalValue;
}
struct Isomorphism {
int xoff, xdir, yoff, ydir;
internal Isomorphism(int xoff, int xdir, int yoff, int ydir) {
this.xoff = xoff;
this.xdir = xdir;
this.yoff = yoff;
this.ydir = ydir;
}
internal uint Column(Codegolf9393 _this, ulong board, int col) {
uint basic = _this.GetColumn(board, xoff + col * xdir);
return _this._CanonicalData[yoff, ydir, basic];
}
}
private uint VRotate(uint col) {
return ((col << 1) | (col >> (_Size - 1))) & (_AlphabetSize - 1);
}
private uint VFlip(uint col) {
uint replacement = 0;
for (int row = 0; row < _Size; row++)
replacement = SetBit(replacement, row, GetBit(col, _Size - row - 1));
return replacement;
}
private uint GetBit(uint n, int bit) {
bit %= _Size;
if (bit < 0) bit += _Size;
return (n >> bit) & 1;
}
private uint SetBit(uint n, int bit, uint value) {
bit %= _Size;
if (bit < 0) bit += _Size;
uint mask = 1u << bit;
return (n & ~mask) | (value == 0 ? 0 : mask);
}
private uint Pack(uint a, uint b) { return (a << _Size) | b; }
private uint Pack(uint a, uint b, uint c) {
return (((a << _Size) | b) << _Size) | c;
}
private uint GetColumn(ulong n, int col) {
col %= _Size;
if (col < 0) col += _Size;
return (_AlphabetSize - 1) & (uint)(n >> (col * _Size));
}
private ulong SetColumn(ulong n, int col, uint value) {
col %= _Size;
if (col < 0) col += _Size;
ulong mask = (_AlphabetSize - 1) << (col * _Size);
return (n & ~mask) | (((ulong)value) << (col * _Size));
}
}
}