Page Summary
dmm - (no subject)
dmm - (no subject)
vak - (no subject)
juan_gandhi - (no subject)
juan_gandhi - (no subject)
vak - (no subject)
dmm - (no subject)
juan_gandhi - (no subject)
dmm - (no subject)
dmm - (no subject)
juan_gandhi - (no subject)
juan_gandhi - (no subject)
dmm - (no subject)
dmm - (no subject)
dmm - (no subject)
juan_gandhi - (no subject)
dmm - (no subject)
vak - (no subject)
dmm - (no subject)
dmm - (no subject)
Active Entries
- 1: Helion details
- 2: "Narrow AGI" this year?
- 3: Tao on coordinate vs coordinate-free math reasoning
- 4: "Aging as a loss of goal-directedness"
- 5: New integrated mode for GPT-4 in ChatGPT+
- 6: Китайский новый год начнётся 10-го февраля
- 7: Automating the Search for Artificial Life with Foundation Models
- 8: "Anatomy of a Formal Proof"
Style Credit
- Style: Neutral Good for Practicality by
Expand Cut Tags
No cut tags


no subject
Date: 2021-04-23 10:09 pm (UTC)(See https://github.com/anhinga/julia-notebooks/tree/main/grimoire-team/variations)
This this the continuation of the previous post (https://dmm.dreamwidth.org/41254.html) and https://dmm.dreamwidth.org/36512.html
no subject
Date: 2021-04-23 10:12 pm (UTC)https://dmm.dreamwidth.org/file/3066.png
https://dmm.dreamwidth.org/file/3308.png
no subject
Date: 2021-04-23 10:44 pm (UTC)no subject
Date: 2021-04-23 11:30 pm (UTC)no subject
Date: 2021-04-23 11:31 pm (UTC)no subject
Date: 2021-04-23 11:55 pm (UTC)no subject
Date: 2021-04-24 12:01 am (UTC)(Edit: ah, ok, this is the actual reference: https://docs.scipy.org/doc/scipy/reference/generated/scipy.signal.convolve2d.html
Ну это тот ещё пример; там второй массив совсем маленькой размерности... Мне бы какие-нибудь содержательные примеры, где с обоих сторон тензоры большие, и получается интересно.)
Вот что я пробовал, это умножать матрицу на вектор из матриц (т.е. это свертка по одному направлению между тензором ранга 2 и тензором ранга 3, получается опять вектор из матриц, то есть, тензор ранга 3).
Но я пробовал это только в небольшом разрешении и в динамике, в контексте рекуррентной системы, наслаждался возникающими emergent properties:
https://youtu.be/CKVwsQEMNjY
https://youtu.be/_mZVVU8x3bs
no subject
Date: 2021-04-24 12:02 am (UTC)no subject
Date: 2021-04-24 12:10 am (UTC)Я бы хотел найти две вещи (и чтобы сослаться, и чтобы выучить получше), но, пока что, не знаю, где бы такое найти:
1) Наверняка кто-то брал уже монохромные картинки, умножал их, как матрицы, и обнаруживал, что результат визуально интересен. Я бы очень хотел каких-нибудь таких предшественников найти, и ссылаться на них в своих "трудах" на эту тему.
2) Наверняка, где-нибудь написано про всякую геометрическую интуицию - как то, как устроены матрицы-множители, оказывается видно в том, как устроено произведение (так, чтобы "на глаз" увидеть, ну и вообще структуры понять). Вот, я ничего такого не помню, ни в книжках по линейной алгебре, ни в книжках по компьютерной графике.
Наверняка, кто-то это должен был изучать, но где оно написано?
no subject
Date: 2021-04-24 12:51 am (UTC)Теперь, если взять A=transpose(B), то, заменяя transpose(B)*B на transpose(B)*transpose(transpose(B)), получаем опять transpose(B)*B, и, тем самым, transpose(B)*B инвариантно относительно транспонирования.
no subject
Date: 2021-04-24 01:24 am (UTC)no subject
Date: 2021-04-24 01:26 am (UTC)no subject
Date: 2021-04-24 01:33 am (UTC)https://nbviewer.jupyter.org/github/anhinga/julia-notebooks/blob/main/grimoire-team/variations/variation-4.ipynb
Так что, пришлось вспомнить :-)
no subject
Date: 2021-04-24 01:39 am (UTC)Я понимаю, что про signal processing, и всякие фильтры, и вот такие "мини-конволюции", как в этом примере, когда свертка по маленькой окрестности, про это написано в разных местах.
А про "свертку по полной размерности", как когда умножаешь матрицы, или когда уменьшаешь ранг тензора на 2, определения, конечно, всюду есть, и формулы, как считать, и вообще. Но мне бы геометрическую интуицию про то, как выглядит результат, и какие у этого результата свойства, - неужели это там тоже было?
no subject
Date: 2021-04-24 01:57 am (UTC)Собственно, для прямоугольных матриц KxM и MxN, если переставляешь порядок множителей, то становишься обязан транспонировать, иначе общая размерность в неправильном месте, и операция вообще не определена.
Настолько я даже не доверял этим добрым людям (а вдруг они умножение матриц определили через "обобщённую свёртку", как свёртка в этом примере, который показал vak, и что-нибудь сделают "на своё усмотрение"), что я даже тут в конце проверил, что оно ломается, если размерности не соответствуют (с облегчением убедился, что у них нормально сделано, вылетает с ошибкой):
https://nbviewer.jupyter.org/github/anhinga/julia-notebooks/blob/main/images-as-matrices/scale-invariance.ipynb
no subject
Date: 2021-04-24 02:42 am (UTC)no subject
Date: 2021-04-24 03:10 am (UTC)no subject
Date: 2021-04-24 06:31 am (UTC)Вот, нагуглил: https://thumbs.gfycat.com/AffectionateMemorableGreyhounddog-mobile.mp4
Там первые три слоя - двумерные свертки с порогом (maxpool), а четвёртый и пятый слои - простые умножения матриц.
no subject
Date: 2021-04-24 02:15 pm (UTC)Но теперь уже новая эпоха вовсю наступает, где доминируют Transformers, в которых нет больше явного locality prior, а только умножения матриц, из которых сделаны "слои внимания", соединённые простыми нейронными коннекторами. Собственно, эта моя деятельность по умножению картинок, как матриц, она как раз мотивирована желанием создать небольшие гибкие машины, использующие, среди прочего, архитектурные компоненты, из которых сделаны Transformers.
Я довольно много с этим вожусь в последние месяцы:
Section 11 of https://www.cs.brandeis.edu/~bukatin/dmm-collaborative-research-agenda.pdf
https://github.com/anhinga/2020-notes/tree/master/attention-based-models
https://github.com/anhinga/2020-notes/blob/master/attention-based-models/matrix-mult-machines.md
https://github.com/anhinga/julia-notebooks/blob/main/images-as-matrices/presentation/talk-proposal.md
https://anhinga-anhinga.livejournal.com/84392.html
no subject
Date: 2021-04-24 08:19 pm (UTC)1) About reconciling V-values and flat tensors. We have a full-scale well-developed schema, but what about a lightweight compromise? We can just say that "leaves are matrices", that's one possible option. (Would it be fruitful to consider sparse matrices in this context?)
2) Reproducing "perceptual 'illusions' in software is a fruitful topic.
2a) Still want to go from DeepDream effects to actual subjective perception. Conjecture: yes, this is what we "subjectively see" (and in "consensus reality" some "meta-performance and/or equilibrium characteristic" of the network is optimized, while in "alternative perception", perhaps something else is optimized, or an "effective network" is different enough).
[This still does not answer the riddle of what represents subjective perception, and how.]
To be continued