dmm: (Default)
Dataflow matrix machines (by Anhinga anhinga) ([personal profile] dmm) wrote2023-12-02 04:58 pm

"Functional Collection Programming with Semi-Ring Dictionaries"

arxiv.org/abs/2103.06376

page 2: "Semi-ring dictionaries realize the well-known connection between relations and tensors" (from "In-Database Learning with Sparse Tensors" 2016-2018 paper)

chaource: (Default)

[personal profile] chaource 2023-12-03 09:21 pm (UTC)(link)
Неужели гопота сможетъ что-то разумное объяснить по поводу такихъ статей? Кромѣ общихъ словъ, я бы ничего не ожидалъ отъ гопоты.

Кстати, недавно на линкед-ин начали задавать идiотскiе "вопросы экспертамъ". ("Объясните, какъ квантовые компьютеры повысятъ быстродѣйствiе интернетъ-бизнесъ-программъ.") Похоже, что обучаютъ новую гопоту.
chaource: (Default)

[personal profile] chaource 2023-12-03 10:08 pm (UTC)(link)
Я читалъ, что гопота объясняла про монады. Это был пустой трепъ.

Гопота не въ состоянiи непротиворѣчиво развивать логическую связь. На каждомъ шагу можетъ дѣлать ошибки любой грубости или тонкости. Я видѣлъ нѣсколько примѣровъ. Скажемъ, пишутъ интегралъ отъ 0 до Т, потомъ предѣлы интегрированiя пропадаютъ, а потомъ интервалъ интегрированiя опять появляется неявно, но уже другой. Или говоритъ: "слѣдовательно, x = 120, а поскольку 120 примѣрно равно 67.5, получаемъ отвѣтъ 67.5".

Я бы не сталъ вѣрить гопотѣ ни на грошъ ни въ чемъ. Политически она подкована на 200%, стиль прекрасный и гладкiй, но мозговъ нѣтъ и не будетъ.


chaource: (Default)

[personal profile] chaource 2023-12-04 09:54 am (UTC)(link)
По вашему, кто-то вообще понимаетъ, "что такое генеративныя модели" на такомъ уровнѣ, чтобы можно было эффективно рѣшать (скажемъ) какiя-либо научныя задачи? Не на уровнѣ "мы попробовали такой-то трансформеръ съ такими-то гиперпараметрами и вродѣ заработало лучше". А на инженерномъ уровнѣ - "вотъ рецептъ, какъ рѣшать такую-то задачу, и вотъ при какихъ условiяхъ это работаетъ".

Я вижу происходящее такъ: Сдѣлали машинку-чатгопота, но никто не знаетъ, что именно она умѣетъ, изслѣдуютъ это лишь методомъ пробъ и ошибокъ. Потому что это машинка новаго типа - безъ какой-либо заранѣе запрограммированной цѣли. Да, это реальная революцiя въ ИИ, но мы не знаемъ, куда это ведетъ и что съ этимъ дѣлать. Поэтому обычно люди реагируютъ такъ: Если машинка дала правильный отвѣтъ - хвалятъ прекрасный новый ИИ. А если отвѣтъ явно неправильный, то вѣдь все равно никто не знаетъ, почему это произошло и какъ можно было бы этого избѣжать, поэтому говорятъ "вы дали неправильный промптъ, пробуйте дальше".
Edited 2023-12-04 09:56 (UTC)
chaource: (Default)

[personal profile] chaource 2023-12-04 05:30 pm (UTC)(link)
Гдѣ можно найти внятное изложенiе "теорiи симуляторовъ"? То, что я пока нашелъ, было пустымъ трепомъ на тему "что еще можно выдоить изъ марковскихъ цѣпочекъ конечной длины". https://www.lesswrong.com/tag/simulator-theory
chaource: (Default)

[personal profile] chaource 2023-12-05 10:26 am (UTC)(link)
Спасибо, я посмотрю ссылки. Можетъ что-то пойму. Пока что я вижу, что тамъ дѣлаются попытки антропоморфизировать LLM, - якобы какiя-то "сущности" съ той или иной вѣроятностью возникаютъ, съ которыми можно "общаться", которыя могутъ "осознавать себя" и т.д., т.е. такiе "псевдо-личности". Можетъ, это и полезно психологически (представлять себѣ, что чатгопота переключается съ одной "псевдо-личности" на другую), но это не научная теорiя, я не вижу, какъ можно было бы тамъ устроить критерiй истинности и математически строго провѣрить, что "сущности" или "личности" существуютъ и обладаютъ такими-то свойствами. По-моему, безнадежно пытаться понять миллiарды коэффицiентовъ нейронной сѣти въ терминахъ "личности".

https://arxiv.org/abs/2102.07350
Using GPT-3 as a case study, we show that 0-shot prompts can significantly outperform few-shot prompts. We suggest that the function of few-shot examples in these cases is better described as locating an already learned task rather than meta-learning.

Ну вотъ это какъ разъ то размахiванiе руками, о которомъ я говорилъ. "Мы попробовали это, попробовали то, ну а потомъ Джимми пнулъ ногой одинъ изъ ленточныхъ барабановъ и тогда оно, кажется, получше заработало."

Я знаю техническое опредѣленiе того, что такое "learning" въ данномъ контекстѣ. Это значитъ опредѣленный процентъ правильныхъ отвѣтовъ на test set, validation set и т.д. Дѣйствительно, это похоже на обычный смыслъ слова "обученiе" въ примѣненiи къ людямъ, потому что "обученные" люди тоже иногда ошибаются и даютъ лишь нѣкую долю правильныхъ отвѣтовъ. Но мы не знаемъ, почему это происходитъ. Мы не знаемъ ни того, почему "обученные" люди умѣютъ что-то дѣлать, ни того, почему они иногда ошибаются. Т.е. мы не знаемъ, какъ работаетъ человѣческое "пониманiе", не можемъ имъ эффективно управлять. Точно также мы не знаемъ, почему модели даютъ иногда правильный отвѣтъ, а иногда неправильный, особенно если давать задачи, выходящiя за рамки обучающаго набора данныхъ.
Edited 2023-12-05 10:26 (UTC)
chaource: (Default)

[personal profile] chaource 2023-12-05 04:32 pm (UTC)(link)
Естественно, LLM похожи на людей (какъ и всѣ большiя нейронныя сѣти) въ томъ отношенiи, что мы не понимаемъ, какъ и когда они работаютъ правильно, а когда неправильно. И естественно, что въ общенiи мы придерживаемся рабочей гипотезы, что оба мы обладаемъ человѣческой личностью, памятью, желанiями и .д. Но это не научная теорiя. У насъ нѣтъ даже адекватнаго формальнаго языка, чтобы точно и детально описывать свойства личности и характеризовать ея поведенiе. Этимъ у насъ традицiонно занимаются поэты и писатели, а также немного психологи и психiатры. Успѣхи у нихъ посредственные.