Zveri2
xeonz привел пример: первого робота просили насыпать безопасную дозу снотворного в воду, потом второго, потом третьего (в результате в воде уже небезопасная доза), потом четвертого просят отнести воду человеку, который просит пить. Человек умирает не смотря на наличие у роботов запрета на причинение вреда человеку
Артура: если осведомленность ИИ (релевантная его назначению) не полнее, чем у человека, то в таком ИИ просто нет смысла.
Zveri2: Без разницы, какая там осведомленность у ИИ. Главное, чтобы пиво из холодильника приносил. Знает ли он при этом больше человека о количестве плиток паркета на сложном пути холодильник-жаждущая рука, значения не имеет
Артура: При чем здесь пиво и тем более паркет я не понял - пиво принести сможет даже современный робот (или скоро сможет), а паркет для этого избыточная информация. Но когда ИИ занимается, к примеру, вашим лечением, он должен владеть полной информацией - например в виде истории вашей болезни. Это я сказал к конкретному вопросу о невольной опасности ИИ, который не владеет полной информацией - считаю эту угрозу надуманной, поскольку как раз относительная полнота информации и должна отличать качественную реализацию ИИ
ЧТО ТУТ МУСОЛИТЬ ШЕСТУЮ СТРАНИЦУ?

Погибший пользователь Теслы был вполне мало-мальский разумный обыватель. Поскольку автопилот в тех обстоятельствах вел себя "как настоящий", т.е. вел машину самостоятельно, то, в тех условиях и в тот момент, никакой разницы для вождения между уровнем 1 и уровнем 5 не было.
В каких еще "тех условиях" - автомобиль сам едет по трассе? Фу ты, ну ты, какое достижение! Но это не превращает его из автопилота 1-го уровня в автопилот 5-го, понимаете? Так что ничего разумного в поведении того водителя не было.И только постфактум, при ошибке автопилота, какой-нибудь рупор юриста начинает рассуждать об уровнях автопилота и глупости.
Ничего подобного - об этом Тесла предупреждала всех водителей. Поэтому и не понесла никакой ответственности.Если вы нашли там такие конкретные факты, приведите их. Слова то там про автономность есть, но, напоминаю, что речь идет о машинах, которые относительно свободно передвигаются по дорогам общего пользования, как у гугла, а не о "трамваях" в песочнице.
Без руля? При грамотной реализации и соответствующем законодательстве, отключение ручного управления и переключение на режим управления автопилотом 5-го уровня тоже снимает с пассажира всякую ответственность. Не надо представлять обывателей идиотами, которые этого не понимают. Еще раз повторю. Наличие возможности ручного управления не мешает автопилоту пятого уровня во время его работы. Отсутствие возможности ручного управления в машине не является непременным требованием автопилота 5-го уровня.
Да ради бога - принципиально лишь то, какой уровень у автопилота. Еще раз повторяю, что 5-й снимает с пассажира всякую ответственность, а 4-й снимает её даже с водителя. Поэтому ДТП таких автомобилей совсем не то, что ДТП где водитель Теслы вопреки инструкции отвлекся от дороги. Это совсем не юридический вопрос - он касается поведения водителя. Должен ли он держать руль на руке и следить за дорогой - и тогда в аварии, даже в случае ошибки автопилота, виноват будет он сам, или он может полностью расслабиться - и тогда виноват автопилот - со всем вытекающим к нему негативным отношением.Никаких терминов типа "релевантный", до того, как вы обозвали релевантные для робота-пивоноса данные нерелевантными, я не обсуждал. Обсуждение терминов начали вы, когда назвали релевантные для пивоноса данные нерелевантными, обнаружив какое-то свое, науке неизвестное, прочтение термина "релевантный". Пришлось разбираться релевантные они или нет.
Вот это разбирательство и было обсуждением терминологии, которую я употребил.Поскольку вы, даже после моих пояснений по поводу релевантности подсчета плиток и значений термина "релевантный", настаиваете на том, что данные по количеству плиток нерелевантны, то приведите более существенные аргументы, чем "нерелевантны, потому, что я говорил о количестве доз снотворного".
Однако интересная у вас трактовка нашего многостраничного обсуждения одной моей фразы. Вот начало переписки:xeonz привел пример: первого робота просили насыпать безопасную дозу снотворного в воду, потом второго, потом третьего (в результате в воде уже небезопасная доза), потом четвертого просят отнести воду человеку, который просит пить. Человек умирает не смотря на наличие у роботов запрета на причинение вреда человеку
Артура: если осведомленность ИИ (релевантная его назначению) не полнее, чем у человека, то в таком ИИ просто нет смысла.
Zveri2: Без разницы, какая там осведомленность у ИИ. Главное, чтобы пиво из холодильника приносил. Знает ли он при этом больше человека о количестве плиток паркета на сложном пути холодильник-жаждущая рука, значения не имеет
Артура: При чем здесь пиво и тем более паркет я не понял - пиво принести сможет даже современный робот (или скоро сможет), а паркет для этого избыточная информация. Но когда ИИ занимается, к примеру, вашим лечением, он должен владеть полной информацией - например в виде истории вашей болезни. Это я сказал к конкретному вопросу о невольной опасности ИИ, который не владеет полной информацией - считаю эту угрозу надуманной, поскольку как раз относительная полнота информации и должна отличать качественную реализацию ИИ
ЧТО ТУТ МУСОЛИТЬ ШЕСТУЮ СТРАНИЦУ?
Жизненные обстоятельства меняют любые правила, которые требуется изменить. Любые, сколь угодно сложные, правила состоят из примитивных составляющих, поэтому сама постановка вопроса о некой примитивности не из той оперы.
И какие же жизненные обстоятельства у ИИ? Стреляющий маленький был примером, когда у самообучающегося интеллекта, вот вашего, вырабатываются изменения в правилах.
Если интеллект не самообучается или раздражитель недостаточен для изменения какого-либо правила, то и правило интеллект изменить не может, т.к. или слишком туп, или ему все равно. И это не отменяет возможность изменения правила каким-то другим способом.
Самообучение ИИ выражается в извлечении правил из того опыта, на котором его обучают (полицейский перевел маленького через дорогу, но убил его когда тот стал в него стрелять), а не изменении этих правил ради какой-то собственной, неведомой нам, цели.Если интеллект не самообучается или раздражитель недостаточен для изменения какого-либо правила, то и правило интеллект изменить не может, т.к. или слишком туп, или ему все равно. И это не отменяет возможность изменения правила каким-то другим способом.
Интеллект, достаточный для бесконфликтного сосуществования с обществом, есть и у кошки. А среднее, это средний интеллектуальный уровень+-, как у большинства.
По этой логике интеллект, достаточный для бесконфликтного сосуществования с обществом, есть и у пепельницы.Прямо идеализированный фронтир какой-то.
Это тоже общество и там тоже есть свое среднее.
Есть - ну и?Это тоже общество и там тоже есть свое среднее.
Добавление от 14.10.2017 20:09:
foma007Подобные ответы в любом случае лежат на "множестве возможных ответов", и еще куча других, которые сейчас никто даже вообразить не может. И ИИ может ошибаться и/или сходить с ума, только цена ошибки не ограничена умственными ограничениями человека или его психической устойчивостью как продукта долгой эволюции.
И уже поздно будет поступать как с сегодняшними нейросетками, "вот, блин что-то опять не так работает, надо другие параметры попробовать.."
Дада, вперед и с песней
Что-то конкретное предлагаете?И уже поздно будет поступать как с сегодняшними нейросетками, "вот, блин что-то опять не так работает, надо другие параметры попробовать.."
Дада, вперед и с песней
Исправлено: Артура, 14.10.2017 20:21