По мере того, как народ набирается опыта в работе с свежезапущенными ИИ-системами генерации картинок, начинают все отчётливей проявляться сильны и слабые стороны каждого из продуктов. У Midjourney есть вполне заметная проблема с генерацией человеческих лиц в реалистичной манере — зато с этим DALLE 2 справляется на ура (а вот в криповатой фантазийности он, наоборот, уступает Midjourney).
Сам я очень люблю пейзажную фотографию и сами красивые пейзажи без излишнего фотошопа, и в этой области результаты генеративных сеточек казались немного не очень. Но вот на сцену недавно вышла Stable Diffusion, и подборка ее работ в этом жанре — очень, на мой вкус, впечатляет. Кто любит красивые виды — оцените, что могла бы сотворить природа :)
https://petapixel.com/2022/08/16/these-are-not-photos-beautiful-landscapes-created-by-new-ai/
Сам я очень люблю пейзажную фотографию и сами красивые пейзажи без излишнего фотошопа, и в этой области результаты генеративных сеточек казались немного не очень. Но вот на сцену недавно вышла Stable Diffusion, и подборка ее работ в этом жанре — очень, на мой вкус, впечатляет. Кто любит красивые виды — оцените, что могла бы сотворить природа :)
https://petapixel.com/2022/08/16/these-are-not-photos-beautiful-landscapes-created-by-new-ai/
Peta Pixel
These Are Not Photos: Beautiful Landscapes Created by New AI
But, I want to visit these places.
🔥80👍19
Первого августа я тут уже ссылался на редкую в наши времена статью про задачи адаптации к климатическим изменениям (которые как-то забылись на фоне всеобщей остервенелой борьбы с этими самыми изменениями). Приятно, что второй раз за месяц попадается текст, в котором напоминают о важности именно адаптации. Потому как повальное увлечение технологиями и решениями, которые что-то там (может быть) остановят через 30 лет, отнимает ресурсы у проектов, которые будут спасать жизни и сейчас, и завтра, и через те самые 30 лет. A poorly designed adaptation project can compound human misery rather than relieve it. As a result, much adaptation research now has a strong ethical and practical backbone. https://www.technologyreview.com/2022/08/17/1057942/why-we-can-no-longer-afford-to-ignore-the-case-for-climate-adaptation/
MIT Technology Review
Why we can no longer afford to ignore the case for climate adaptation
Scientists couldn't agree for years about the best way to fight global warming—now we know we need to both cut emissions, and adapt.
👍36❤3💩2
У коров своя метавселенная — по крайней мере, у некоторых из тех, что пасутся на пастбищах штата Вашингтон. Нет, VR-очки на них не надевают, все гораздо лучше: виртуальными являются загородки, ограничивающие территорию выпаса. На коровах — ошейники с GPS и устройством для генерации небольшого электрического разряда и звуков. У пастухов, находящихся за десятки миль от своих бурёнок в домашнем комфорте, экран с картой, на которой в реальном времени отображается положение каждой головы рогатого скота. В принципе, все работает автоматически, но при необходимости дистанционный пастух может вмешаться и поуправлять строптивой коровой.
Такая конфигурация лучше не только для пастухов — пастбища без физических заграждений идеальны для местной дикой живности, которая может беспрепятственно перемещаться, на этих животных нет управляющих ошейников. Вся эта красота — не просто экзотический эксперимент, а результат работы продуктов компании Vence, поставляющей решения для виртуальных изгородей.
Как любителю хайкинга, мне эта затея тоже очень нравится — для всех полезный AgroTech.
https://crosscut.com/environment/2022/08/virtual-fencing-ranchers-can-herd-cows-computer
Такая конфигурация лучше не только для пастухов — пастбища без физических заграждений идеальны для местной дикой живности, которая может беспрепятственно перемещаться, на этих животных нет управляющих ошейников. Вся эта красота — не просто экзотический эксперимент, а результат работы продуктов компании Vence, поставляющей решения для виртуальных изгородей.
Как любителю хайкинга, мне эта затея тоже очень нравится — для всех полезный AgroTech.
https://crosscut.com/environment/2022/08/virtual-fencing-ranchers-can-herd-cows-computer
Crosscut
With virtual fencing, ranchers can herd cows from a computer
Using GPS collars and solar-powered towers, Washington's first virtual fence keeps cattle penned but lets other wildlife wander free.
👍75🔥15👎9❤6💩3
Полагаю, отношение к этой новости может оказаться довольно поляризованным даже среди поклонников техпрогресса.
На склонах Килиманджаро прокладывают оптоволоконную сеть и устанавливают точки WiFi-доступа. Уже в ближайшее время высокоскоростной доступ в интернет появится на высотах до 3720 м; до вершины самой высокой горы Африки (5895 м) покрытие доберётся до конца года. Казалось бы, возможность стримить себя любимого и красоту вокруг из любой точки мира — это то, к чему мы должны стремиться, ради чего строится Starlink и подобные проекты. Те 30 000 туристов, кто ежегодно лезут на Килиманджаро, должны быть в восторге.
Но почему вдруг при чтении этой новости просыпается нездоровый консерватизм?
https://www.nbcnews.com/news/africa/mount-kilimanjaro-wifi-broadband-fiber-optic-tanzania-rcna43880
На склонах Килиманджаро прокладывают оптоволоконную сеть и устанавливают точки WiFi-доступа. Уже в ближайшее время высокоскоростной доступ в интернет появится на высотах до 3720 м; до вершины самой высокой горы Африки (5895 м) покрытие доберётся до конца года. Казалось бы, возможность стримить себя любимого и красоту вокруг из любой точки мира — это то, к чему мы должны стремиться, ради чего строится Starlink и подобные проекты. Те 30 000 туристов, кто ежегодно лезут на Килиманджаро, должны быть в восторге.
Но почему вдруг при чтении этой новости просыпается нездоровый консерватизм?
https://www.nbcnews.com/news/africa/mount-kilimanjaro-wifi-broadband-fiber-optic-tanzania-rcna43880
NBC News
New broadband on Mount Kilimanjaro lets tourists document their climbs, but some locals aren't happy
The new broadband network will enable climbers to access reliable Wi-Fi internet up to an altitude of 12,205 feet.
👍60👎34❤4
Бета-версия проекта Stable Diffusion получила веб-интерфейс под названием DreamStudio Lite и пускает всех желающих попробовать (известное дело, что первая доза должна быть бесплатной). Двести пойнтов, которые даются новичку бесплатно, кончаются куда раньше, чем появляется навык работы с текстовыми подсказками, так что полезно для кошелька, что российские карты там не работают ;)
Но чуток потыкаться и хотя бы примерно ощутить как работают генеративные сеточки, вокруг которых столько шума, теперь может каждый не заморачиваясь с учетками в Дискорде.
Но только не надо на основании тех жалких картинок, которые у вас получатся, делать выводы о творческой импотенции генеративных сеточек, там — как во многих местах — надо вложить прилично времени и денег, чтобы начало получаться толковое.
https://beta.dreamstudio.ai/dream
Но чуток потыкаться и хотя бы примерно ощутить как работают генеративные сеточки, вокруг которых столько шума, теперь может каждый не заморачиваясь с учетками в Дискорде.
Но только не надо на основании тех жалких картинок, которые у вас получатся, делать выводы о творческой импотенции генеративных сеточек, там — как во многих местах — надо вложить прилично времени и денег, чтобы начало получаться толковое.
https://beta.dreamstudio.ai/dream
🔥31👍9💩2
Автоматическая генерация музыки — штука гораздо более древняя, чем автоматическая генерация изображений. Но последнее время что-то меньше слышно про музыку, чем про картинки или видео.
В OpenAI решили это исправить — все-таки современные возможности, породившие и GPT-2 для текстов, и DALLE 2 для изображений должны и для звуков открыть что-то ранее невозможное и сильно более интересное чем MuseNet, которую учили на MIDI.
А теперь — отобранный дотасет из 1,2 млн песен (из которых половина на английском), усложнение модели, которое позволяет провязать текст песни с ее мелодией — и вот вам модель , которая по введенному тексту и указанию жанра генерит готовую песенку:)
Правда, тут пока не светит никакого интерактива: на генерацию одной минуты песни уходит 9 часов расчетов, это совсем не “на лету”.
Но результаты занятные, созданная модель впечатляет, а у кого-то из музыкантов наверняка начнет подгорать как у иллюстраторов последний месяц :)
https://openai.com/blog/jukebox/
(обратите внимание на дату поста в их блоге — этой новости 2 года, а как актуально читается :))
В OpenAI решили это исправить — все-таки современные возможности, породившие и GPT-2 для текстов, и DALLE 2 для изображений должны и для звуков открыть что-то ранее невозможное и сильно более интересное чем MuseNet, которую учили на MIDI.
А теперь — отобранный дотасет из 1,2 млн песен (из которых половина на английском), усложнение модели, которое позволяет провязать текст песни с ее мелодией — и вот вам модель , которая по введенному тексту и указанию жанра генерит готовую песенку:)
Правда, тут пока не светит никакого интерактива: на генерацию одной минуты песни уходит 9 часов расчетов, это совсем не “на лету”.
Но результаты занятные, созданная модель впечатляет, а у кого-то из музыкантов наверняка начнет подгорать как у иллюстраторов последний месяц :)
https://openai.com/blog/jukebox/
(обратите внимание на дату поста в их блоге — этой новости 2 года, а как актуально читается :))
Openai
Jukebox
We’re introducing Jukebox, a neural net that generates music, including rudimentary singing, as raw audio in a variety of genres and artist styles. We’re releasing the model weights and code, along with a tool to explore the generated samples.
👍36💩7
Forwarded from Denis Sexy IT 🤖
Curated art generator by neural.love
После месяцев разработки, выкатили в открытую бету наше виденье инструмента по генерации картинок из текста.
Не буду вас утомлять лирикой, хоть и очень горжусь командой (которая, кстати, пополнилась, но об этом позже), и есть что рассказать, поэтому вот главные фичи:
⚜️ Генерировать можно сколько угодно бесплатно
⚜️ Наше решение, в отличие от других, не требует «промпт инженеринга»; то есть вам достаточно написать «
⚜️ Можно генерировать приватно, в приоритете, и по 40 штук – но это уже за кредиты. Без приоритета живая очередь, и может занять минут ~15, мы медленнее других в этом плане
⚜️ NSFW запрещен, за этим следит отдельная нейронка
⚜️ Публичные результаты можно скидывать друзьям, ссылка откроется без реги
⚜️ Если вам понравился какой-то арт, просто нажмите «re-create» и текстовый запрос и выбор категории, сразу подставятся
⚜️ Генератор работает только с английским
⚜️ Какие есть категории уже сейчас: картина, космос, аниме, фэнтези, татуировки (скетчи, ну, как я тогда себе сделал), текстуры (для геймдева и 3D людей), природа, крипота, киберпанк, стимпанк. Категории будут добавляться
⚜️ На странице видно что генерируют другие люди
⚜️ Картинки генерятся с лицензией CC0, можете печатать, продавать, делать NFT, коммерция и тп.
⚜️ Прямо на сайте можно улучшить результат апскейлом (увеличить, уменьшить блюр и тп), для этого есть кнопка Enhance
В общем, давайте положим нам сервера:
https://neural.love/ai-art-generator
(Требуется регистрация, маркетинговые письма не шлем если не поставить галку)
P.S. Этот проект был бы невозможен без исследовательской работы CompVis и Stability AI, эти организации – ИИ дар человечеству
После месяцев разработки, выкатили в открытую бету наше виденье инструмента по генерации картинок из текста.
Не буду вас утомлять лирикой, хоть и очень горжусь командой (которая, кстати, пополнилась, но об этом позже), и есть что рассказать, поэтому вот главные фичи:
⚜️ Генерировать можно сколько угодно бесплатно
⚜️ Наше решение, в отличие от других, не требует «промпт инженеринга»; то есть вам достаточно написать «
кошка», выбрать категорию модели, и вы получите самую лучшую нейронную кошку. Картинки выше получены с первого раза, по простым запросам⚜️ Можно генерировать приватно, в приоритете, и по 40 штук – но это уже за кредиты. Без приоритета живая очередь, и может занять минут ~15, мы медленнее других в этом плане
⚜️ NSFW запрещен, за этим следит отдельная нейронка
⚜️ Публичные результаты можно скидывать друзьям, ссылка откроется без реги
⚜️ Если вам понравился какой-то арт, просто нажмите «re-create» и текстовый запрос и выбор категории, сразу подставятся
⚜️ Генератор работает только с английским
⚜️ Какие есть категории уже сейчас: картина, космос, аниме, фэнтези, татуировки (скетчи, ну, как я тогда себе сделал), текстуры (для геймдева и 3D людей), природа, крипота, киберпанк, стимпанк. Категории будут добавляться
⚜️ На странице видно что генерируют другие люди
⚜️ Картинки генерятся с лицензией CC0, можете печатать, продавать, делать NFT, коммерция и тп.
⚜️ Прямо на сайте можно улучшить результат апскейлом (увеличить, уменьшить блюр и тп), для этого есть кнопка Enhance
В общем, давайте положим нам сервера:
https://neural.love/ai-art-generator
(Требуется регистрация, маркетинговые письма не шлем если не поставить галку)
P.S. Этот проект был бы невозможен без исследовательской работы CompVis и Stability AI, эти организации – ИИ дар человечеству
🔥98👍24❤7💩5👎2
Довольно длинный и общий — но мне понравился — трёп в подкасте с ребятами из TJ на тему будущего технологий с уклоном в местное будущее. Понятно, что тема нынче особенно флеймообразующая; понятно, что за отсутствие радикализма в позиции меня дополнительно не полюбят сразу с двух сторон :) Но дело привычное, если кому интересно — милости просим, собеседники там отличные.
https://youtu.be/5CNMbyIb0i0
https://youtu.be/5CNMbyIb0i0
YouTube
Будущее науки и технологий в России // Разговор с Андреем Себрантом// Ну как там с деньгами?
Сегодня демонстрируем классные футболки и разговариваем о науке и технологиях с Андреем Себрантом. Обсудим, что нас ждет в этой области в ближайшем будущем, где, скорее всего, будет самый заметный прорыв и что с этим делать.
Гость выпуска:
Андрей Себрант…
Гость выпуска:
Андрей Себрант…
❤24👍13👎4
Разговоры про Вселенную всегда звучали романтично, а не просто научно, а тут еще свежие картинки с JWST нас балуют чуть не ежедневно (причём большинство восторженно ахающих не очень задумываются, что глаз принципиально не может и не сможет увидеть эти красоты: телескоп работает в инфракрасном диапазоне, невидимом для людей; нам показывают визуализацию сложной алгоритмической обработки, а не цветную фотографию:))
И всё это так сложно потому, что Вселенная — непредставимо большая. И вот в этой статье популяризаторы и иллюстраторы взялись за тяжкую задачу наглядно показать вселенские масштабы. Вместо линейного представления они использовали логарифмическое, это отдельная засада, потому что оно для многих непривычно и интуитивно неочевидно. Но все равно получилось и очень красиво, и очень интересно — на мой испорченный физикой вкус. https://bigthink.com/starts-with-a-bang/logarithmic-view-universe/
И всё это так сложно потому, что Вселенная — непредставимо большая. И вот в этой статье популяризаторы и иллюстраторы взялись за тяжкую задачу наглядно показать вселенские масштабы. Вместо линейного представления они использовали логарифмическое, это отдельная засада, потому что оно для многих непривычно и интуитивно неочевидно. Но все равно получилось и очень красиво, и очень интересно — на мой испорченный физикой вкус. https://bigthink.com/starts-with-a-bang/logarithmic-view-universe/
Big Think
See the whole Universe at once in this unique logarithmic view
As we look to larger cosmic scales, we get a broader view of the expansive cosmic forest, eventually revealing the grandest views of all.
👍50❤5🔥2
Сегодня нельзя не написать такой пост :))
К скорому двадцатипятилетию Яндекс решил вернуться к корням :)) Честно говоря, лично меня очень радует, что теперь официальная морда Яндекса — страница с коротким адресом ya.ru и той лаконичностью, которая была у Яндекса при рождении в 1997. Специально выкладываю вид странички того года; подозреваю, что не все из моих читателей помнят или видели :)
Функционально тогда там был один лишь поиск - остальное все справочное. Теперь на ya.ru будут, конечно, и персональные сервисы, и Алиса — но все то, что внутри называлось “ответами на незаданные вопросы” в виде контента СМИшного или пользовательского уедет в VK. По условиям сделки с ними на эту страницу (которая станет называться dzen.ru) будет стоять редирект с Yandex.ru.
Так что если хотите от Яндекса его собственных сервисов и поиска в первую очередь, переучивайтесь на адрес Ya.ru :)
А для любителей искать еще и сигналы про бизнес, замечу: Уже давно бОльшая часть доходов у нас - не рекламные. И рекламные деньги росли слабее, чем сервисные — будь то Такси, Еда или Кинопоиск. Новая морда — это как раз сигнал, что развесистый рекламный инвентарь и генерация трафика для него — не главное в будущем Яндекса; наши технологии могут приносить куда больше денег, чем их есть у рекламодателей.
К скорому двадцатипятилетию Яндекс решил вернуться к корням :)) Честно говоря, лично меня очень радует, что теперь официальная морда Яндекса — страница с коротким адресом ya.ru и той лаконичностью, которая была у Яндекса при рождении в 1997. Специально выкладываю вид странички того года; подозреваю, что не все из моих читателей помнят или видели :)
Функционально тогда там был один лишь поиск - остальное все справочное. Теперь на ya.ru будут, конечно, и персональные сервисы, и Алиса — но все то, что внутри называлось “ответами на незаданные вопросы” в виде контента СМИшного или пользовательского уедет в VK. По условиям сделки с ними на эту страницу (которая станет называться dzen.ru) будет стоять редирект с Yandex.ru.
Так что если хотите от Яндекса его собственных сервисов и поиска в первую очередь, переучивайтесь на адрес Ya.ru :)
А для любителей искать еще и сигналы про бизнес, замечу: Уже давно бОльшая часть доходов у нас - не рекламные. И рекламные деньги росли слабее, чем сервисные — будь то Такси, Еда или Кинопоиск. Новая морда — это как раз сигнал, что развесистый рекламный инвентарь и генерация трафика для него — не главное в будущем Яндекса; наши технологии могут приносить куда больше денег, чем их есть у рекламодателей.
👍175💩106❤25🔥12👎7