dmm: (Default)
Dataflow matrix machines (by Anhinga anhinga) ([personal profile] dmm) wrote2023-12-02 04:58 pm

"Functional Collection Programming with Semi-Ring Dictionaries"

arxiv.org/abs/2103.06376

page 2: "Semi-ring dictionaries realize the well-known connection between relations and tensors" (from "In-Database Learning with Sparse Tensors" 2016-2018 paper)

juan_gandhi: (Default)

[personal profile] juan_gandhi 2023-12-02 11:49 pm (UTC)(link)

Чудесненько обобщили. Но изложено варварским языком. Вообще, это должна быть не статья, а книга, в Спрингере. Не 38 страниц, а страниц триста.

chaource: (Default)

[personal profile] chaource 2023-12-03 09:21 pm (UTC)(link)
Неужели гопота сможетъ что-то разумное объяснить по поводу такихъ статей? Кромѣ общихъ словъ, я бы ничего не ожидалъ отъ гопоты.

Кстати, недавно на линкед-ин начали задавать идiотскiе "вопросы экспертамъ". ("Объясните, какъ квантовые компьютеры повысятъ быстродѣйствiе интернетъ-бизнесъ-программъ.") Похоже, что обучаютъ новую гопоту.
chaource: (Default)

[personal profile] chaource 2023-12-03 10:08 pm (UTC)(link)
Я читалъ, что гопота объясняла про монады. Это был пустой трепъ.

Гопота не въ состоянiи непротиворѣчиво развивать логическую связь. На каждомъ шагу можетъ дѣлать ошибки любой грубости или тонкости. Я видѣлъ нѣсколько примѣровъ. Скажемъ, пишутъ интегралъ отъ 0 до Т, потомъ предѣлы интегрированiя пропадаютъ, а потомъ интервалъ интегрированiя опять появляется неявно, но уже другой. Или говоритъ: "слѣдовательно, x = 120, а поскольку 120 примѣрно равно 67.5, получаемъ отвѣтъ 67.5".

Я бы не сталъ вѣрить гопотѣ ни на грошъ ни въ чемъ. Политически она подкована на 200%, стиль прекрасный и гладкiй, но мозговъ нѣтъ и не будетъ.


chaource: (Default)

[personal profile] chaource 2023-12-04 09:54 am (UTC)(link)
По вашему, кто-то вообще понимаетъ, "что такое генеративныя модели" на такомъ уровнѣ, чтобы можно было эффективно рѣшать (скажемъ) какiя-либо научныя задачи? Не на уровнѣ "мы попробовали такой-то трансформеръ съ такими-то гиперпараметрами и вродѣ заработало лучше". А на инженерномъ уровнѣ - "вотъ рецептъ, какъ рѣшать такую-то задачу, и вотъ при какихъ условiяхъ это работаетъ".

Я вижу происходящее такъ: Сдѣлали машинку-чатгопота, но никто не знаетъ, что именно она умѣетъ, изслѣдуютъ это лишь методомъ пробъ и ошибокъ. Потому что это машинка новаго типа - безъ какой-либо заранѣе запрограммированной цѣли. Да, это реальная революцiя въ ИИ, но мы не знаемъ, куда это ведетъ и что съ этимъ дѣлать. Поэтому обычно люди реагируютъ такъ: Если машинка дала правильный отвѣтъ - хвалятъ прекрасный новый ИИ. А если отвѣтъ явно неправильный, то вѣдь все равно никто не знаетъ, почему это произошло и какъ можно было бы этого избѣжать, поэтому говорятъ "вы дали неправильный промптъ, пробуйте дальше".
Edited 2023-12-04 09:56 (UTC)
chaource: (Default)

[personal profile] chaource 2023-12-04 05:30 pm (UTC)(link)
Гдѣ можно найти внятное изложенiе "теорiи симуляторовъ"? То, что я пока нашелъ, было пустымъ трепомъ на тему "что еще можно выдоить изъ марковскихъ цѣпочекъ конечной длины". https://www.lesswrong.com/tag/simulator-theory
chaource: (Default)

[personal profile] chaource 2023-12-05 10:26 am (UTC)(link)
Спасибо, я посмотрю ссылки. Можетъ что-то пойму. Пока что я вижу, что тамъ дѣлаются попытки антропоморфизировать LLM, - якобы какiя-то "сущности" съ той или иной вѣроятностью возникаютъ, съ которыми можно "общаться", которыя могутъ "осознавать себя" и т.д., т.е. такiе "псевдо-личности". Можетъ, это и полезно психологически (представлять себѣ, что чатгопота переключается съ одной "псевдо-личности" на другую), но это не научная теорiя, я не вижу, какъ можно было бы тамъ устроить критерiй истинности и математически строго провѣрить, что "сущности" или "личности" существуютъ и обладаютъ такими-то свойствами. По-моему, безнадежно пытаться понять миллiарды коэффицiентовъ нейронной сѣти въ терминахъ "личности".

https://arxiv.org/abs/2102.07350
Using GPT-3 as a case study, we show that 0-shot prompts can significantly outperform few-shot prompts. We suggest that the function of few-shot examples in these cases is better described as locating an already learned task rather than meta-learning.

Ну вотъ это какъ разъ то размахiванiе руками, о которомъ я говорилъ. "Мы попробовали это, попробовали то, ну а потомъ Джимми пнулъ ногой одинъ изъ ленточныхъ барабановъ и тогда оно, кажется, получше заработало."

Я знаю техническое опредѣленiе того, что такое "learning" въ данномъ контекстѣ. Это значитъ опредѣленный процентъ правильныхъ отвѣтовъ на test set, validation set и т.д. Дѣйствительно, это похоже на обычный смыслъ слова "обученiе" въ примѣненiи къ людямъ, потому что "обученные" люди тоже иногда ошибаются и даютъ лишь нѣкую долю правильныхъ отвѣтовъ. Но мы не знаемъ, почему это происходитъ. Мы не знаемъ ни того, почему "обученные" люди умѣютъ что-то дѣлать, ни того, почему они иногда ошибаются. Т.е. мы не знаемъ, какъ работаетъ человѣческое "пониманiе", не можемъ имъ эффективно управлять. Точно также мы не знаемъ, почему модели даютъ иногда правильный отвѣтъ, а иногда неправильный, особенно если давать задачи, выходящiя за рамки обучающаго набора данныхъ.
Edited 2023-12-05 10:26 (UTC)
chaource: (Default)

[personal profile] chaource 2023-12-05 04:32 pm (UTC)(link)
Естественно, LLM похожи на людей (какъ и всѣ большiя нейронныя сѣти) въ томъ отношенiи, что мы не понимаемъ, какъ и когда они работаютъ правильно, а когда неправильно. И естественно, что въ общенiи мы придерживаемся рабочей гипотезы, что оба мы обладаемъ человѣческой личностью, памятью, желанiями и .д. Но это не научная теорiя. У насъ нѣтъ даже адекватнаго формальнаго языка, чтобы точно и детально описывать свойства личности и характеризовать ея поведенiе. Этимъ у насъ традицiонно занимаются поэты и писатели, а также немного психологи и психiатры. Успѣхи у нихъ посредственные.
chaource: (Default)

[personal profile] chaource 2023-12-04 09:58 am (UTC)(link)
А какая цѣль должна быть у этой работы? Они всего лишь сформулировали что-то на языкѣ теорiи типовъ.
chaource: (Default)

[personal profile] chaource 2023-12-04 09:04 am (UTC)(link)
Multiplication is defined in a way that is not commutative by default, where multiplying a dictionary with a scalar results in each value of the dictionary being multiplied by the scalar

That seems incorrect to me. Multiplication by scalars is obviously commutative.

Since I'm not familiar with technical details of any of this stuff, it's really useless for me to read what chatgpt said. I can spot an error only in a domain where I already know the technical details. In domains where I am just trying to learn new stuff, chatgpt's output will mislead without me noticing.

For example, it says "Yes, this is closely related" and actually it could be unrelated, how do we know? Chatgpt didn't say why they were closely related other than superficially (dictionaries with numeric leaves vs. nested dictionaries with semiring-valued leaves).
Edited 2023-12-04 09:43 (UTC)
chaource: (Default)

[personal profile] chaource 2023-12-05 10:57 am (UTC)(link)
Look again at this phrase:

Multiplication is defined in a way that is not commutative by default, where multiplying a dictionary with a scalar results in each value of the dictionary being multiplied by the scalar

This phrase is confusing: it says that multiplication is not commutative by default (what does "default" mean here?) and then it talks about multiplying dictionaries by scalars as if to illustrate the non-commutativity.

To understand what this means, you need to actually look into the paper and find what is commutative and what is non-commutative.

A reasonable rewrite would be: "Multiplication by scalars is in general non-commutative. (full stop, it's going to be a different topic now!) Multiplying a dictionary with a scalar results in ..."