dmm: (Default)
Dataflow matrix machines (by Anhinga anhinga) ([personal profile] dmm) wrote2023-12-02 04:58 pm

"Functional Collection Programming with Semi-Ring Dictionaries"

arxiv.org/abs/2103.06376

page 2: "Semi-ring dictionaries realize the well-known connection between relations and tensors" (from "In-Database Learning with Sparse Tensors" 2016-2018 paper)

chaource: (Default)

[personal profile] chaource 2023-12-04 05:30 pm (UTC)(link)
Гдѣ можно найти внятное изложенiе "теорiи симуляторовъ"? То, что я пока нашелъ, было пустымъ трепомъ на тему "что еще можно выдоить изъ марковскихъ цѣпочекъ конечной длины". https://www.lesswrong.com/tag/simulator-theory
chaource: (Default)

[personal profile] chaource 2023-12-05 10:26 am (UTC)(link)
Спасибо, я посмотрю ссылки. Можетъ что-то пойму. Пока что я вижу, что тамъ дѣлаются попытки антропоморфизировать LLM, - якобы какiя-то "сущности" съ той или иной вѣроятностью возникаютъ, съ которыми можно "общаться", которыя могутъ "осознавать себя" и т.д., т.е. такiе "псевдо-личности". Можетъ, это и полезно психологически (представлять себѣ, что чатгопота переключается съ одной "псевдо-личности" на другую), но это не научная теорiя, я не вижу, какъ можно было бы тамъ устроить критерiй истинности и математически строго провѣрить, что "сущности" или "личности" существуютъ и обладаютъ такими-то свойствами. По-моему, безнадежно пытаться понять миллiарды коэффицiентовъ нейронной сѣти въ терминахъ "личности".

https://arxiv.org/abs/2102.07350
Using GPT-3 as a case study, we show that 0-shot prompts can significantly outperform few-shot prompts. We suggest that the function of few-shot examples in these cases is better described as locating an already learned task rather than meta-learning.

Ну вотъ это какъ разъ то размахiванiе руками, о которомъ я говорилъ. "Мы попробовали это, попробовали то, ну а потомъ Джимми пнулъ ногой одинъ изъ ленточныхъ барабановъ и тогда оно, кажется, получше заработало."

Я знаю техническое опредѣленiе того, что такое "learning" въ данномъ контекстѣ. Это значитъ опредѣленный процентъ правильныхъ отвѣтовъ на test set, validation set и т.д. Дѣйствительно, это похоже на обычный смыслъ слова "обученiе" въ примѣненiи къ людямъ, потому что "обученные" люди тоже иногда ошибаются и даютъ лишь нѣкую долю правильныхъ отвѣтовъ. Но мы не знаемъ, почему это происходитъ. Мы не знаемъ ни того, почему "обученные" люди умѣютъ что-то дѣлать, ни того, почему они иногда ошибаются. Т.е. мы не знаемъ, какъ работаетъ человѣческое "пониманiе", не можемъ имъ эффективно управлять. Точно также мы не знаемъ, почему модели даютъ иногда правильный отвѣтъ, а иногда неправильный, особенно если давать задачи, выходящiя за рамки обучающаго набора данныхъ.
Edited 2023-12-05 10:26 (UTC)
chaource: (Default)

[personal profile] chaource 2023-12-05 04:32 pm (UTC)(link)
Естественно, LLM похожи на людей (какъ и всѣ большiя нейронныя сѣти) въ томъ отношенiи, что мы не понимаемъ, какъ и когда они работаютъ правильно, а когда неправильно. И естественно, что въ общенiи мы придерживаемся рабочей гипотезы, что оба мы обладаемъ человѣческой личностью, памятью, желанiями и .д. Но это не научная теорiя. У насъ нѣтъ даже адекватнаго формальнаго языка, чтобы точно и детально описывать свойства личности и характеризовать ея поведенiе. Этимъ у насъ традицiонно занимаются поэты и писатели, а также немного психологи и психiатры. Успѣхи у нихъ посредственные.