People often take a LiveJournal blog and clone it to Dreamwidth, and there are plenty of instructions on doing this.
E.g. this blog was initially created as a clone of "anhinga-travel" LiveJournal on July 5, 2017: dmm.dreamwidth.org/18238.html
What if I'd like to go in the opposite direction: to take an existing Dreamwidth journal and clone it somewhere (for example, to a new LiveJournal)?
Do people have experience with that?
E.g. this blog was initially created as a clone of "anhinga-travel" LiveJournal on July 5, 2017: dmm.dreamwidth.org/18238.html
What if I'd like to go in the opposite direction: to take an existing Dreamwidth journal and clone it somewhere (for example, to a new LiveJournal)?
Do people have experience with that?
no subject
Date: 2021-06-07 12:46 am (UTC)Сегодня вернулся; сделал update of all packages; в общем, meh, есть всякие нарекания (пришлось уговаривать всё опять начать работать, "build conda" explicitly, because it did not get recompiled on its own, and Jupyter kernel hated that; и какую-то рекомпиляцию этот процесс отложил до первого использования, а я уж привык, что в 1.6 всё сразу). Но оказалось, что на том месте, где я всё это оставил неделю назад в загадочном недоумении, у меня просто была опечатка.
Это место прошли успешно, но теперь новая загадка - почему-то, когда я добавил id_warp, оптимизация стала застревать в локальном минимуме... Может быть, это тривиальный баг, а может быть я что-то не то делаю более принципиально в плане подсчёта производной... Вот, буду разбираться...
***
Здоровье так себе...
no subject
Date: 2021-06-07 01:18 am (UTC)Исследовать это дело пока не буду, а буду просто делать всё тоже для большой задачи...
no subject
Date: 2021-06-08 03:34 am (UTC)Та же проблема, но просто заменил в ADAMW default learning rate 0.001 with the faster one (0.01) и проскочил успешно, см.: https://github.com/anhinga/julia-notebooks/tree/main/flux-may-2021/variation-3
Now doing the same for a large task, the default learning rate 0.001 might be too conservative; I don't think it'll get stuck, but it takes longer than necessary (this is the first case in this series of experiments where gradient computations were not optimized well, and each iteration takes long time - this is also something to investigate). Until now, even the large ones were fast, but with warps it is not the case for some reason.