W październiku 2014 r. Dr Mark Riedl opublikował podejście do testowania inteligencji AI, zwane „Testem Lovelace 2.0” , po zainspirowaniu oryginalnym testem Lovelace (opublikowanym w 2001 r.). Mark uważał, że oryginalny test Lovelace'a nie będzie mógł przejść pomyślnie, dlatego zasugerował słabszą i bardziej praktyczną wersję.
Test Lovelace 2.0 zakłada, że aby sztuczna inteligencja była inteligentna, musi wykazywać kreatywność. Z samego papieru:
Test Lovelace 2.0 wygląda następująco: sztuczny środek a jest kwestionowany w następujący sposób:
musi stworzyć artefakt typu t;
o musi być zgodny z zestawem ograniczeń C, gdzie ci ∈ C jest dowolnym kryterium wyrażonym w języku naturalnym;
człowiek oceniający h, po wybraniu t i C, jest przekonany, że o jest prawidłową instancją ti spełnia C; i
sędzia ludzki r określa kombinację ti C, aby nie były nierealne dla przeciętnego człowieka.
Ponieważ człowiek oceniający może wymyślić dość łatwe ograniczenia do pokonania przez AI, oczekuje się, że oceniający będzie wymyślał coraz bardziej złożone ograniczenia dla AI, dopóki AI nie zawiedzie. Celem Lovelace Test 2.0 jest porównanie kreatywności różnych AI, a nie zapewnienie wyraźnej linii podziału między „inteligencją” a „nieinteligencją”, jak zrobiłby to Test Turinga.
Zastanawiam się jednak, czy test ten został rzeczywiście zastosowany w środowisku akademickim, czy w tej chwili jest postrzegany jedynie jako eksperyment myślowy. Test Lovelace'a wydaje się łatwy do zastosowania w środowisku akademickim (musisz jedynie opracować mierzalne ograniczenia, których możesz użyć do przetestowania sztucznego czynnika), ale może być również zbyt subiektywny (ludzie mogą nie zgadzać się co do zasadności pewnych ograniczeń i tego, czy kreatywny artefakt wyprodukowany przez AI faktycznie spełnia ostateczny wynik).