Nell'ottobre 2014, il Dr. Mark Riedl ha pubblicato un approccio al test dell'intelligenza artificiale, chiamato "Lovelace Test 2.0" , dopo essere stato ispirato dall'originale Lovelace Test (pubblicato nel 2001). Mark credeva che il test Lovelace originale sarebbe stato impossibile da superare, e quindi ha suggerito una versione più debole e più pratica.
Lovelace Test 2.0 presuppone che un'intelligenza artificiale sia intelligente, deve mostrare creatività. Dal documento stesso:
Il test Lovelace 2.0 è il seguente: l'agente artificiale a è contestato come segue:
a deve creare un artefatto o di tipo t;
o deve conformarsi a una serie di vincoli C in cui ci ∈ C è un criterio esprimibile in linguaggio naturale;
un valutatore umano h, avendo scelto t e C, è convinto che o sia un'istanza valida di te incontra C; e
un arbitro umano r determina che la combinazione di te C non è irrealistica per un essere umano medio.
Poiché è possibile per un valutatore umano escogitare alcuni vincoli piuttosto facili da superare per un'intelligenza artificiale, si prevede quindi che il valutatore umano continui a presentare vincoli sempre più complessi per l'IA fino a quando l'IA non fallisce. Lo scopo di Lovelace Test 2.0 è confrontare la creatività di diversi IA, non fornire una linea di demarcazione definita tra "intelligenza" e "non intelligenza" come farebbe il test di Turing.
Tuttavia, sono curioso di sapere se questo test è stato effettivamente utilizzato in un ambiente accademico o al momento è visto solo come un esperimento mentale. Il test Lovelace sembra facile da applicare in contesti accademici (devi solo sviluppare alcuni vincoli misurabili che puoi usare per testare l'agente artificiale), ma può anche essere troppo soggettivo (gli esseri umani possono non essere d'accordo sul merito di determinati vincoli e se un artefatto creativo prodotto da un'intelligenza artificiale in realtà incontra il risultato finale).