Вот, наконец, кажется возник правильный подход к пониманию природы моделей вроде GPT-3 и разнообразного волшебства, с этим связанного:
www.lesswrong.com/posts/vJFdjigzmcXMhNTsx/simulators
Он говорит, что надо перестать думать про эти модели в терминах более старых AI-систем.
www.lesswrong.com/posts/vJFdjigzmcXMhNTsx/simulators
Он говорит, что надо перестать думать про эти модели в терминах более старых AI-систем.
no subject
Date: 2022-09-21 07:26 am (UTC)no subject
Date: 2022-09-22 09:16 pm (UTC)no subject
Date: 2022-10-02 05:11 pm (UTC)Вот, люди наконец сформулировали это всё более подробно: эти штуки, вроде GPT-3, надо понимать, как симуляторы, они создают (обычно довольно эфемерные) виртуальные реальности («ветки мультиверса»), и там возникают разные сущности, умные и глупые, гениальные и патологические, часто весьма эфемерные и короткоживущие, и с этими сущностями человек и взаимодействует, общаясь с каким-нибудь вариантом GPT-3.
no subject
Date: 2022-10-02 05:12 pm (UTC)Поэтому, оно иногда работает очень классно, а иногда фигово, это смотря на какую сущность попадёшь (известно, что можно заставить его вести себя более предсказуемо, но тогда он становится резко менее творческим; знакомый мотив у людей и их сообществ; вот у Трансформеров оно устроено так же)...
no subject
Date: 2022-10-02 05:15 pm (UTC)no subject
Date: 2022-10-02 06:06 pm (UTC)no subject
Date: 2022-10-05 06:21 pm (UTC)https://github.com/anhinga/2022-notes/tree/main/Generative-autoregressive-models-are-similators
no subject
Date: 2022-10-09 03:13 pm (UTC)Текущее состояние: покрывает заметку Скотта Александра и первую половину текста Януса (я думаю, что это уже гораздо проще читать, чем оригиналы)...
no subject
Date: 2022-10-23 06:47 pm (UTC)