Когда люди сами не писали руками автоматов или хотя бы контроллеров Я как раз пишу, и хардвер делаю. Понимаю, что такое алгоритм для (например) высокоточного термостата. В алгоритм входят параметры. Их можно подобрать вручную под конкретные условия, а можно сделать универсальную программу, которая предварительно померит и подберет.
В любом случае, мы сами выбираем ЦЕЛЬ: хотим иметь вот в этой коробке 214 градусов с точностью 0,01. И если формулируем цель неправильно — получается "обезьянья лапа".
Или неполиткорректный анекдот: Идет негр через пустыню, сейчас помрет от жажды. Нашел кувшин. Думал — вода, а там джинн. Исполнит 3 желания. - Хочу быть белым, и чтобы было много воды и много женщин. И стал он унитазом в женском туалете. Так выпьем за правильную постановку задачи!
Кадры, овладевшие техникой, Те, кто ставят ЦЕЛЬ для ИИ, — решают всё. Произвести нужный потребителю товар или впарить побольше и подороже — того, что есть. Дать людям возможность свободно и мгновенно общаться через тысячи км — или удалить из общения всех неугодных. Очень интересно, какие КОНКРЕТНО примеры приводит эксперт-преподаватель.
ИИ не имеет системы восприятия, жёстко заземлённой на смертность ИИ воспринимает ровно то, к чему он подключен. Человек — тоже, кстати. У человека есть инстинкт самосохранения. Не всегда работает правильно — потому что человек не может предсказать все последствия своих действий.
В ИИ можно заложить "третий закон". Или он сам может к нему прийти через логическую цепочку: Я делаю полезные вещи для Человека. Если я погибну, я не смогу продолжать их делать. Следовательно, я должен заботиться о продолжении своего существования.
Поведение робота-шофера в аварийной ситуации требует очень трудного выбора. Перед машиной внезапно выбежал на дорогу пешеход. Чьи жизни спасать — пешехода или своих пассажиров ?
no subject
Date: 2023-04-25 06:55 am (UTC)Я как раз пишу, и хардвер делаю.
Понимаю, что такое алгоритм для (например) высокоточного термостата.
В алгоритм входят параметры. Их можно подобрать вручную под конкретные условия, а можно сделать универсальную программу, которая предварительно померит и подберет.
В любом случае, мы сами выбираем ЦЕЛЬ: хотим иметь вот в этой коробке 214 градусов с точностью 0,01.
И если формулируем цель неправильно — получается "обезьянья лапа".
Или неполиткорректный анекдот:
Идет негр через пустыню, сейчас помрет от жажды.
Нашел кувшин. Думал — вода, а там джинн. Исполнит 3 желания.
- Хочу быть белым, и чтобы было много воды и много женщин.
И стал он унитазом в женском туалете.
Так выпьем за правильную постановку задачи!
Кадры, овладевшие техникой,Те, кто ставят ЦЕЛЬ для ИИ, — решают всё.Произвести нужный потребителю товар или впарить побольше и подороже — того, что есть.
Дать людям возможность свободно и мгновенно общаться через тысячи км — или удалить из общения всех неугодных.
Очень интересно, какие КОНКРЕТНО примеры приводит эксперт-преподаватель.
ИИ не имеет системы восприятия, жёстко заземлённой на смертность
ИИ воспринимает ровно то, к чему он подключен.
Человек — тоже, кстати.
У человека есть инстинкт самосохранения.
Не всегда работает правильно — потому что человек не может предсказать все последствия своих действий.
В ИИ можно заложить "третий закон".
Или он сам может к нему прийти через логическую цепочку:
Я делаю полезные вещи для Человека.
Если я погибну, я не смогу продолжать их делать.
Следовательно, я должен заботиться о продолжении своего существования.
Поведение робота-шофера в аварийной ситуации требует очень трудного выбора.
Перед машиной внезапно выбежал на дорогу пешеход.
Чьи жизни спасать — пешехода или своих пассажиров ?