Вот, наконец, кажется возник правильный подход к пониманию природы моделей вроде GPT-3 и разнообразного волшебства, с этим связанного:
www.lesswrong.com/posts/vJFdjigzmcXMhNTsx/simulators
Он говорит, что надо перестать думать про эти модели в терминах более старых AI-систем.
www.lesswrong.com/posts/vJFdjigzmcXMhNTsx/simulators
Он говорит, что надо перестать думать про эти модели в терминах более старых AI-систем.
no subject
Date: 2022-10-02 05:11 pm (UTC)Вот, люди наконец сформулировали это всё более подробно: эти штуки, вроде GPT-3, надо понимать, как симуляторы, они создают (обычно довольно эфемерные) виртуальные реальности («ветки мультиверса»), и там возникают разные сущности, умные и глупые, гениальные и патологические, часто весьма эфемерные и короткоживущие, и с этими сущностями человек и взаимодействует, общаясь с каким-нибудь вариантом GPT-3.
no subject
Date: 2022-10-02 05:12 pm (UTC)Поэтому, оно иногда работает очень классно, а иногда фигово, это смотря на какую сущность попадёшь (известно, что можно заставить его вести себя более предсказуемо, но тогда он становится резко менее творческим; знакомый мотив у людей и их сообществ; вот у Трансформеров оно устроено так же)...
no subject
Date: 2022-10-02 05:15 pm (UTC)