shcherb: пойдешь к одному АИ он тебя убедит во вреде вакцин, пойдешь к другому он тебя убедит в обратном. Махнешь на обоих рукой и на этом кончится.
Разговор начинался не с этого, а с теоретической возможности продвинутого ИИ манипулировать лицами, принимающими решения (например, о нажатии на красную кнопку), применяя индивидуализированные, следовательно, высокоэффективные методы таковой манипуляции. Коллега FIBM выразил сомнение в возможности такой "персональной настройки", я привёл ссылку, где специалист выражает полную уверенность в этой возможности.
Что же до конкретно темы массового промывания мозгов ("башен противобаллистической защиты"), то она прекрасно реализуется и без всяких ИИ, в том числе в условиях свободы доступа к любой информации при минимальных усилиях. "Махнуть рукой" получается лишь у меньшинства. Применение ИИ, однако, угрожает сделать это промывание на порядок более эффективным, сравнимым по эффективности с тем самым фантастическим излучением из "Обитаемого острова".
Я не то что не уверен, а мне вообще наплевать, чью повестку продвигаю и на чью мельницу лью воду. Я не мыслю такими категориями, а просто стараюсь понимать реальность, насколько это возможно для слабого и ограниченного человеческого интеллекта. А понимать стараюсь для собственного удовольствия, а не для чего ещё. Ну вот нравится мне это - понимать. Всякий имеет право на свои вкусы, даже странные.
Musk explained, "While Rome was falling, Islam was rising, so you had a caliphate doing well while Rome was doing terribly. And that ended up being a source of preservation of knowledge and many scientific advancements."
"So I think we need to be a little conscious of being too much of a single civilization because if we are too much of a single civilization, then the whole thing may collapse,"
Если понимать под "Римом" Римскую империю, включая Восточную, то так оно и есть. А потом всё перевернулось: "While Rome (Constatinople) was rising, Islam was falling", а потом опять перевернулось и т. д. Короче, Маск, ясное дело, не историк, но в главном-то он прав
вероятность ее сохранения ничуть не ниже ее снижения — точнее, этого не знает никто
так "ничутъ не ниже" или неизвестно?
(Терпеливо) Ладно, попробую ещё раз. Автор в данном случае выступает не как исследователь, а как популяризатор, и, соответственно, может и должен употреблять некоторые слова в бытовом значении. Когда мы в быту говорим, что событие "А" не менее вероятно, чем событие "B", это означает не сравнение вычисленных нами математических вероятностей, а "хрен его знает, данных маловато, чтобы прогнозировать". Тем более что это значение уточнено прямо в том же предложении, после слова "точнее". Не понять просто невозможно, если только не притворяться непонимающим в целях троллинга.
хрен его знает, данных маловато, чтобы прогнозировать
хороший эпиграф к этому тексту
__________________________
не надо шутить с войной
shcherb: пойдешь к одному АИ он тебя убедит во вреде вакцин, пойдешь к другому он тебя убедит в обратном. Махнешь на обоих рукой и на этом кончится.
Разговор начинался не с этого, а с теоретической возможности продвинутого ИИ манипулировать лицами, принимающими решения (например, о нажатии на красную кнопку), применяя индивидуализированные, следовательно, высокоэффективные методы таковой манипуляции. Коллега FIBM выразил сомнение в возможности такой "персональной настройки", я привёл ссылку, где специалист выражает полную уверенность в этой возможности.
Что же до конкретно темы массового промывания мозгов ("башен противобаллистической защиты"), то она прекрасно реализуется и без всяких ИИ, в том числе в условиях свободы доступа к любой информации при минимальных усилиях. "Махнуть рукой" получается лишь у меньшинства. Применение ИИ, однако, угрожает сделать это промывание на порядок более эффективным, сравнимым по эффективности с тем самым фантастическим излучением из "Обитаемого острова".
таких ИИ будет много и каждый будет промыватъ в своем направлении, но опятъ же эффект от промывания краткосрочный. Это как вы пришли на интервью, наниматъся на работу и показали высший класс. Но потом за вами закрылась дверь, пришли другие соискатели, отдел кадров высказал свои сомнения, кто-то привел своего родственника, итд.
__________________________
не надо шутить с войной
Evgeny Gleizerov: а с теоретической возможности продвинутого ИИ манипулировать
теоретическая возможность отсутствует, потому что манипуляция включает в себя намерение, а намерение - категория воли. ии не обладает волей, и никакого пути ей обладать нет даже и теоретически.
классический пример использования слов, не имеющих никакого смысла, для постановки "философской" проблемы. впрочем, это во времена витгенштейна так ставили философские проблемы. сейчас так ставят "экзистенциальные"
Evgeny Gleizerov: а с теоретической возможности продвинутого ИИ манипулировать
теоретическая возможность отсутствует, потому что манипуляция включает в себя намерение, а намерение - категория воли. ии не обладает волей, и никакого пути ей обладать нет даже и теоретически.
классический пример использования слов, не имеющих никакого смысла, для постановки "философской" проблемы. впрочем, это во времена витгенштейна так ставили философские проблемы. сейчас так ставят "экзистенциальные"
Вы бы почитали что-нибудь по теме, что ли. Никто из специалистов по ИИ не считает, что "никакого пути ей обладать нет даже и теоретически". А мнению специалистов я, уж извините, доверяю больше, чем... дальше можете сами продолжить, думаю, понятно.
Evgeny Gleizerov: а с теоретической возможности продвинутого ИИ манипулировать
теоретическая возможность отсутствует, потому что манипуляция включает в себя намерение, а намерение - категория воли. ии не обладает волей, и никакого пути ей обладать нет даже и теоретически.
классический пример использования слов, не имеющих никакого смысла, для постановки "философской" проблемы. впрочем, это во времена витгенштейна так ставили философские проблемы. сейчас так ставят "экзистенциальные"
О.к. уточним формулировку: "а с теоретической возможности с помощью продвинутого ИИ манипулировать". И заметим от себя: без точных представлений намеревающегося о конечных результатах манипуляции, особенно о широкомасштабных конечных результатах
Как по мне, что совой по камню, что камнем по сове...
Не нужно даже никакой полуфантастики о "самосознающем ИИ". Уже современные ИИ умеют обобщать и малопредсказуемо трактовать поставленные перед ними цели. Эволюция также неразумна и не имеет никакой цели, однако же её результаты часто выглядят так, как если бы она направлялась целеполагающим разумом. То же и здесь.
Эволюция предыдущей версии ChatGPT за номером 3.5 к текущей версии за номером 4.0 заняла всего 4 месяца (с ноября 2022 до марта 2023).
Скачок интеллектуального потенциала от предыдущей к текущей версии ChatGPT оказался не меньшим, чем скачок способностей от Homo erectus к Homo sapiens (см. рис. справа).
Я вижу в этой статье только одно: проведя огромную тренировку ИИ может "плохонько" сдать экзамены, которые специально сделаны для того, чтобы проверить насколько хорошо абитуриент тренировался. И что здесь удивительного? Напротив, для меня удивительно то, что сдает экзамены эти экзамены "плохонько".
Но мы начали разговор с "опасностей от ИИ", и где в этой статье опасности???
Кстати, про экзамены у Карелова тоже есть. Для обсуждаемой темы существенно вот что:
Имхо, единственное объяснение этому — что GPT самостоятельно обобщил поставленную перед ним цель на новый контекст.
Это и есть зародыш ИИ-целеполагания. Точнее, не целеполагания, а того, что с точки зрения внешнего наблюдателя будет выглядеть как самостоятельное целеполагание - точно так же, как результаты биологической эволюции выглядят как результаты разумного целеполагания.