Active Entries
- 1: "Narrow AGI" this year?
- 2: Tao on coordinate vs coordinate-free math reasoning
- 3: "Aging as a loss of goal-directedness"
- 4: New integrated mode for GPT-4 in ChatGPT+
- 5: Китайский новый год начнётся 10-го февраля
- 6: Automating the Search for Artificial Life with Foundation Models
- 7: "Anatomy of a Formal Proof"
- 8: C to safe Rust automatic translation using LLMs and dynamic analysis
- 9: GonzoML
- 10: Transformers as a Computational Model (workshop)
Style Credit
- Style: Neutral Good for Practicality by
Expand Cut Tags
No cut tags
no subject
Date: 2020-10-19 04:15 pm (UTC)В их экспериментах они получили интересную самоогранизацию и "видообразование", но до обучения дело пока не дошло...
***
Это всё интересно перекликается с моим мартовским эссе "Synergy between AI-generating algorithms and dataflow matrix machines", in https://dmm.dreamwidth.org/24201.html
В частности, они тоже не верят, что для этой программы автогенерации искусственного интеллекта нужны такие уж большие вычислительные мощности.
И много другого общего: мир сделан из единого активного нейромофного субстрата, в котором и растут нужные структуры.
Их тормозит то, что они пробуют вписаться в Jax, которые более гибок, чем TensorFlow и PyTorch, но, всё равно, более жёсткий, чем им реально нужно, судя по тексту статьи. Ну и им было бы полезно использовать структуризующие возможности "гибких тензоров с древовидными индексами" и прочие замечательные штуки, которые могут делать DMMs.