Kurs sztucznej inteligencji, w którym uczestniczyłem online, prowadzony w Stanford, zalecał użycie Pythona do odrabiania zadań domowych. Wierzę, że Georgia Tech nadal korzysta z LISP.
Błędem jest to, że „nowy” jest „dobry”. Badania nad AI są jedną z najstarszych dyscyplin komputerowych. Ucieka z subpól, gdy ludzie zdają sobie sprawę, że techniki z nich można wykorzystać gdzie indziej. Przetwarzanie języka, uczenie maszynowe i eksploracja danych to przykłady „praktycznych” aplikacji korzystających z ogromnej liczby języków.
Więc mniej zmieniło się główne pole niż zostało zmienione w ogromną gamę powiązanych dziedzin. Przypomina to powiedzenie „obliczeń naukowych” i oczekiwanie, że będzie to oznaczało rozwiązanie równań liniowych.
Języki, o których wspomniałeś, ewoluowały całkiem sporo w ciągu ostatnich 20 lub 30 lat. Lisp zrodził Common Lisp i Clojure. Prolog pojawił się Visual Prolog (ma przedmioty ...) i Mercury (zabierz Haskella i Prologa, zamknij je razem w pokoju ... stań daleko i przygotuj się do ucieczki).
Biorąc pod uwagę, że badania nad sztuczną inteligencją są bardziej teoretyczne, sensowne byłoby skoncentrowanie się na teorii (matematyce), a nie na praktyczności (językach).
Biorąc to wszystko pod uwagę, największym innowatorem technologii AI, który postawiłem, jest Google. Zwykle faworyzują Pythona (i Go i Dart, ale to nie ma sensu). Tak więc powiedziałbym, że Python jest „ostatnim wybranym językiem”, ale możesz również użyć Haskell lub OCaml lub F # lub C # lub nawet Java.