Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

The Cognitive Revolution Podcast
Иллия Полосухин (@ilblackdragon), соавтор "Внимание — это всё, что вам нужно" и основатель @NEARProtocol, присоединяется к @labenz на @cogrev_podcast, чтобы обсудить своё конкретное видение будущего, основанного на ИИ.
Они обсуждают:
* Как помощники по программированию на основе ИИ позволяют создавать "персональное программное обеспечение" — где каждый может создать свою собственную автоматизацию вместо использования сложных универсальных инструментов, таких как Salesforce
* Переход от традиционных пользовательских интерфейсов к единому интеллектуальному слою, который работает на всех ваших устройствах, предсказывает, что вам нужно, и проактивно выполняет задачи
* Как агенты ИИ преобразуют рынки, напрямую соединяя покупателей и продавцов, делая рекламу и посредников менее актуальными
* Как выглядит повседневная жизнь в эпоху изобилия ИИ — с персонализированными развлечениями и людьми, находящими смысл в небольших нишевых сообществах
* Делегаты ИИ, которые голосуют от имени держателей токенов, и долгосрочная цель NEAR — чтобы у каждого человека был свой ИИ, участвующий в управлении
* Симбиотические отношения между людьми и их личными ИИ, которые "взрастают вместе" — где ИИ преследуют интересы своих людей даже в переговорах с другими ИИ
* Оставшиеся проблемы в области биобезопасности и необходимость координации по мере того, как мощные системы ИИ становятся широко распространёнными
ГЛАВЫ:
(00:00) Спонсор: Google Gemini Notebook LM
(00:31) О выпуске
(03:33) ИИ трансформирует разработку программного обеспечения
(14:18) Будущее работы
(18:58) Обеспечение безопасности блокчейна с помощью ИИ (Часть 1)
(19:08) Спонсоры: Tasklet | Linear
(21:48) Обеспечение безопасности блокчейна с помощью ИИ (Часть 2)
(33:03) Видение ИИ-общества (Часть 1)
(33:55) Спонсор: Shopify
(35:52) Видение ИИ-общества (Часть 2)
(49:14) Архитектура агентов и согласование
(58:30) Эксперименты с управлением ИИ
(01:06:43) Безопасность ИИ и надёжность
(01:16:09) Биобезопасность и открытые модели
(01:22:56) Координация разработки ИИ
(01:28:52) Завершение
38,16K
.@eoghan, CEO @intercom, и @fergal_reid, главный AI-офицер, присоединяются к @labenz на @cogrev_podcast, чтобы обсудить, как они создали Fin — AI-агента по обслуживанию клиентов, который увеличил уровень разрешения с 35% до 65% за 30 месяцев, одновременно внедряя ценообразование на основе результатов по 99¢ за разрешение. Они исследуют:
* Почему интеллект не является узким местом — GPT-4 уже был достаточно умным, и лишь несколько процентных пунктов из их 30-процентного улучшения пришли от лучших базовых моделей
* Инженерия контекста как настоящий драйвер: пользовательские модели извлечения, повторные ранжировщики и тысячи производственных A/B-тестов, которые фиксируют изменения уровня разрешения на 0,1%
* Модель ценообразования 99¢ за разрешение, которая изначально была убыточной, но достигла маржи на уровне программного обеспечения благодаря улучшению уровней успеха и снижению затрат на вывод
* Как Fin решил проблему подводной команды поддержки без массовых увольнений — замедление новых наборов сотрудников при перемещении людей вверх по цепочке создания ценности (за исключением BPO, которые заменяются немедленно)
МЕТКИ ВРЕМЕНИ:
(00:00) О выпуске
(03:43) Успевать за AI
(09:56) Оценка моделей и оценок
(13:04) Участники против стартапов
(18:54) Риск продукта и суждение (Часть 1)
(19:00) Спонсоры: Linear | AGNTCY
(21:34) Риск продукта и суждение (Часть 2)
(23:42) История увольнений в Klarna (Часть 1)
(32:11) Спонсоры: Claude | Shopify
(36:13) История увольнений в Klarna (Часть 2)
(36:14) Увеличение уровня разрешения
(45:00) Интеллект не является узким местом
(50:10) Закрытие разрыва в автоматизации
(56:20) Человеческая точность против AI
(1:01:03) Нюансы скорости
(1:04:48) Учет изменений парадигмы
(1:09:31) Модель ценообразования на основе результатов
(1:19:12) Непринужденное хакерство и идеи
(1:26:05) Принятие AI и амбиции
(1:36:00) Завершение
4,51K
Понимание психологии и принимающих решения лидеров ИИ, таких как @sama. @FU_joehudson, исполнительный коуч и основатель @artofaccomp, присоединяется к @labenz в @CogRev_Podcast, чтобы обсудить психологию и принятие решений исследователей и лидеров ИИ.
Они исследуют:
* Почему каждый исследователь ИИ борется с вопросом "Делаю ли я что-то хорошее для человечества?", но не имеет согласия по поводу того, что это значит
* Как эмоциональные блокирующие паттерны мешают инновациям - и техники "разблокировки" через интеграцию разума/сердца/интуиции
* Почему стыд за разработчиков ИИ дает обратный эффект, а поддержка их как "героев, дающих жизнь" работает лучше
* Неизбежность развития ИИ и необходимость позитивных видений, выходящих за рамки чистой оптимизации интеллекта
Временные метки:
(00:00) О выпуске
(03:00) Опыт Джо в коучинге
(12:40) Паттерны исследований ИИ (Часть 1)
(17:46) Спонсор: Linear
(19:15) Паттерны исследований ИИ (Часть 2) (Часть 1)
(28:10) Спонсор: Oracle Cloud Infrastructure
(29:34) Паттерны исследований ИИ (Часть 2) (Часть 2)
(31:54) Гонки и регулирование
(50:20) Этика и поддержка
(01:04:07) Вопросы сознания ИИ
(01:21:34) Позитивные видения будущего
(01:39:12) Поддержка разработчиков ИИ
(01:43:09) Завершение
954
Топ
Рейтинг
Избранное

