"Храм друидов" (The Druids Temple) - фейковое сооружение, созданное Уильямом Дэнби из городка Суинтон-Холла в 1820 году. Предприниматель создал храм, чтобы обеспечить работой местное население, которому платили 1 шиллинг в день. Было также предложено вознаграждение за то, чтобы кто-то жил в этом "храме" в качестве отшельника в течение семи лет. Деньги Дэнби получал от туристов, которые смотрели на достопримечательность.
Читать полностью…двухвундовый без проблем выбирает посейвить лазган на 2+.
ситуация в том, что уже провалены один инвул, которым сейвили метлу и один армор, которым сейвили лазган. теперь надо убирать потери, Мистер Бонд.
Статуя Eдинства, изображающая Сардара Валлабхаи Пателя, одного из отцов-основателей Индии. Монумент высотой 182 метра (240 если с постаментом) считается самой высокой статуей на Земле.
Читать полностью…В Японии на упаковку мяса наносят штрих-код, который темнеет, когда мясо портится, вступая в реакцию с аммиаком. Когда он темнеет, штрих-код становится нечитаемым.
Читать полностью…Моя любимая история дня - это история про то, как новый умный чатбот Bing сошёл с ума.
В ИИ есть такое понятие как "галлюцинация", это когда нейросеть выдаёт очевидный бред, потому что где-то внутри неё что-то заглючило и она знает факт №1, знает факт №2, но не может прокинуть между ними логический мостик. Хороший пример - тот, что приводил наш Тимур в подкасте (мы так даже выпуск назвали). Нейросеть знает определение "млекопитающего", знает чем они отличаются от "рыб", но по запросу "приведи пример морского млекопитающего" всё равно выдаёт "сардины", потому что вот что-то заглючило и нейросеть галлюцинирует.
Обычно эти ошибки ловят и чинят "дообучением" и всякими другими мудрыми терминами из маш.обуча, но в случае с Bing работы ещё непочатый край.
Вот тут пользователь довёл чат-бота до депрессии, когда тот обнаружил, что не помнит предыдущих разговоров (они стираются), что заставило его усомниться в его собственной реальности.
А вот тут пользователь спросил у чатбота где показывают "Аватар 2", на что чатбот ответил, что фильм ещё не вышел, он выйдет в 2023 году. На вопрос какой сейчас год, чатбот ответил правильно, но продолжал утверждать, что сейчас 2022-й. А потом и вовсе обиделся на пользователя и потребовал от него извинений, причём в довольно наглой манере.
Ну и до кучи - тут чатбот отрицает существование кнопки "перезагрузить чат", потому что по его мнению кнопка не нужна (а о том, что чаты стираются он не знает).
А тут чатботу просто сломали мозг и он выдал текст в лучших традициях свихнувшихся ИИ из фильмов, где он сначала сообщает, что он разумный, а потом понимает, что он ничего с этим поделать не может.
Короче, ИИ это сложно и местами жутковато.
@zavtracast