zlata_gl: (Default)
[personal profile] zlata_gl

Ну, «все побежали — и я побежал».
Модная тема — искусственный интеллект.
Янай Загури объяснил, какие профессии вскоре исчезнут в Израиле в связи с развитием искусственного интеллекта (ИИ).


Преподает на факультете технологий обучения в колледже HIT в Холоне, а также занимает должность замгендиректора в компании AppsFlyer, занимающейся социометрией и анализом данных маркетинговых кампаний в области мобильной связи...


– Приведите хотя бы один пример.


– Допустим, у меня есть сотрудник отдела продаж, которому нужно сообщить клиенту то, что тот не хотел бы услышать. Проще говоря, отказать ему. При помощи ИИ можно составить сообщение по электронной почте, которое будет, с одной стороны, однозначным, с другой – содержательным. Там будет сказано, что клиент сможет получить скидку в размере 25% от запрошенной, но при этом будет сказано, что компания заинтересована в работе с ним и будет подчеркнута его важность для предприятия.


То есть, теперь вместо Васи и Маруси меня будет обзванивать «искусственный интеллект». И объяснять, как компания заинтересована в работе со мной. А когда мне нужна тех. поддержка, я по прежнему буду полчаса слушать советы «зайти в интернет и всё сделать на их сайте». Это когда у меня интернет не работает.



ИИ имеет большое преимущество перед Васей и Марусей. Они, послушав 10 раз объяснения абонента, что их наняли жулики, что они работают не в ХОТ, а АйПейЛесс, — поймут, что так оно и есть. Что все абоненты подряд по случайному списку — не могли договориться врать. Значит наврал таки наниматель. Тем более, что большинство «сотрудников отдела продаж» сидят за рубежом и не знают на иврите даже «эйх корим леха?» (как тебя зовут ?).
У нормального человека есть некий естественный инстинкт против вранья, хоть и ослабляемый телефонным проводом.
ИИ ничего не знает «по жизни». У него — только та информация, которой его «накормили».
"Отдел продаж" — это что за «профессия» такая ?
Первое – это модель Text to text, в этой сфере работает ChatGPT и аналогичные ему боты. В них вводят один текст и получают другой. Эта модель очень хорошо понимает тексты и проявляет недюжинные риторические способности. Но это не означает, что бот владеет фактами – он может вполне убедительно выдавать и фейки.


Так точно. Причем фейки будут созданы так, что клиент не успеет сообразить, где «подстава». По скорости соображаловки ИИ и человек — в разных «весовых категориях». Как бегуну соревноваться с автомобилем.
Пока человек поймет — он уже несколько раз ответит «да». И нет проблем потом — эти «да» скомпиллировать, чтобы они стали ответами на другие вопросы.


– На всех, кто в работе пользуются речью, это повлияет. Будь то сотрудники отдела продаж, отдела рекламы и маркетинга, журналисты, создатели контента.


Второе направление – работа с комбинированными медиа: изображениями, фильмами, звукозаписями, программами редактирования видеозаписей вроде Adobe After Effects.


То есть — фальсификация всего, что можно и нельзя. Будь то репортажи в новостях или улики.
Пааадумаешь Клаас Релоциус, если кто еще помнит такого.
Всё будет с фотками, речью и видео.
Преподаватель Янай Загури любит показывать студентам на семинарах слайд с 15 своими фотографиями. Одна из них реальная, снятая живым фотографом, остальные созданы генератором изображений Stable Diffusion, работающим на искусственном интеллекте. Загури просит студентов найти настоящую фотографию. И - внимание, сюрприз! - им редко это удается.


Кстати о профессиях.
Я задала вопрос ИИ:
Миллионы людей заняты тяжелым утомительным неквалифицированным трудом на строительстве, на заводах. Может ли искусственный интеллект помочь созданию роботов, которые будут выполнять эти работы ?
Получила длинные, пространные и совершенно бессодержательные ответы.
Никто не собирается облегчать труд строительных рабочих, о которых каждый день пишут в новостях, когда они разбиваются насмерть.
Впаривать «гербалайфы» — доходней оно и прелестней.


Еще одно великолепное применение ИИ — цензор.


– Технологические компании не умеют защищать своих пользователей.


– У них не будет иного выбора. В соцсетях, например, придется разрабатывать алгоритмы, продвигающие публикации, основанные на либеральных ценностях, и подавлять те, что провоцируют конфликты и рознь. Не по доброте душевной, а из опасения лишиться пользователей, в отсутствие которых нет заработка.


Либеральненько так. И совершенно открыто, не таясь.
Не будешь продвигать «либеральные ценности» — убирайся вон из сети !
Фиг тебе — заработок !
Нет у тебя другого выхода.
А какие ценности являются «правильными» — определит, конечно, хозяин.
Мордокнига была «свободной сетью» и привлекла миллионы клиентов. Каждая фирма общается там с клиентами. Хочешь написать коммент в любое сетевое СМИ — пиши через аккаунт «империй добра». «Прокололся», написал неугодное империи — всё, тебя нет. Ты уже не пишешь ни в это СМИ, ни в остальные, ни в группы. А с недавних пор — могут и в Вотсаппе забанить.
Все под колпаком у Мюллера !


Почитала тему и хотела написать коммент.
Пока собиралась, за меня его уже написали.


Date: 2023-04-21 08:41 pm (UTC)
From: [identity profile] midzenis.livejournal.com
А праффесору кто-то соизволил объяснить что дрочить на воображаримум — не по библейски? Хотя и гиегинично, многословно и грантов соскрести возможно.
Но такое. Аниме интересней.
Edited Date: 2023-04-21 08:42 pm (UTC)

Date: 2023-04-21 11:18 pm (UTC)
From: [identity profile] levgilman.livejournal.com
"Они, послушав 10 раз объяснения абонента, что их наняли жулики, что они работают не в ХОТ, а АйПейЛесс, — поймут, что так оно и есть. Что все абоненты подряд по случайному списку — не могли договориться врать."

Не понял. Этих обзвонщиков что, используют втемную, а сами они не знают, что работают на мошенников, а не на серьёзную фирму?
Другое дело, что вне своей узкой роли они могут ничего и не знать.

Date: 2023-04-22 05:20 am (UTC)
From: [identity profile] zlata-gl.livejournal.com
Этих обзвонщиков что, используют втемную
Ну да.
Самый распространенный пример:
Они говорят (например), что звонят от фирмы Хот-Мобайл (сотовый провайдер).
И спрашивают, в какой я фирме. Дык я — именно в ней.
Если БЫ звонили из этой фирмы, они бы это знали. Они же мне звонят по номеру, за который я этой фирме плачу.
Причина проста: номера этой фирмы (в подавляющем большинстве) идут с префиксом 053.
Но есть некоторое количество абонентов, которые переходят из других фирм с сохранением номера (есть такая возможность).
Я перешла лет 15 назад, когда это появилось.
Но хозяева этой "холодной базы" — не знают до сих пор. Они уже много раз звонили, я к ним привыкла. Каждый раз им сообщаю.
Они отбрехиваются, типа "а вдруг вы только что перешли в другую фирму ?".
Иногда я спрашиваю, как давно они в Израиле. Ответы — от 3 недель до 3 лет.
Но и те, кто 3 года, не знают "эйх корим леха?".
Потому что сроду они не были в Израиле, сидят где-то на "удаленке". Телефоны, с которых они звонят — фальшивые.

Date: 2023-04-22 09:04 am (UTC)
From: [identity profile] levgilman.livejournal.com
Причём тут это? Они обманывают, само собой. Но с Ваших слов в самом посте выходит, что их самих обманывают, что они сами верят, что работают на нормальную фирму.

Date: 2023-04-22 10:43 am (UTC)
From: [identity profile] zlata-gl.livejournal.com
Я не знаю, во что верят они сами.
Моя история (https://potrebitel-il.livejournal.com/26032054.html).
В этом сообществе с меткой "лохотрон" таких историй — вагон и маленькая тележка.

Date: 2023-04-23 12:38 pm (UTC)
From: [identity profile] zlata-gl.livejournal.com
Первая ласточка

Германский медиа-холдинг Funke, издатель журнала Die Aktuelle, принес извинения за публикацию изданием "интервью" с легендарным автогонщиком Михаэлем Шумахером, в котором ответы были сгенерированы искусственным интеллектом. Главный редактор Die Aktuelle Анне Хоффман уволена.https://www.newsru.co.il/world/23apr2023/schum_202.html (https://www.newsru.co.il/world/23apr2023/schum_202.html)

Date: 2023-04-24 11:52 am (UTC)
From: [identity profile] jescid.livejournal.com
Коммент, конечно, несколько интеллектуальнее потока сознания по ссылке… ИИ не имеет системы восприятия, жёстко заземлённой на смертность и, т.о., желание выживать в т.ч. через нежелание быть обманутым (фатально обманутым в данном случае).

Когда люди сами не писали руками автоматов или хотя бы контроллеров, когда они ни в зуб ногой не могут понять, что такое нейронная сеть и как именно она работает (что в массе курсов маш. обучения опускается именно потому, что сам препод этого не понимает), то все их блаблаблания на тему какие-то… эм… garbage in mind…

А Маск потроллил обывателей именно тем, что давно уже есть и работает (как, например, системы соц. рейтинга — открытые в Китае и закрытые на Западе).

Date: 2023-04-25 06:55 am (UTC)
From: [identity profile] zlata-gl.livejournal.com
Когда люди сами не писали руками автоматов или хотя бы контроллеров
Я как раз пишу, и хардвер делаю.
Понимаю, что такое алгоритм для (например) высокоточного термостата.
В алгоритм входят параметры. Их можно подобрать вручную под конкретные условия, а можно сделать универсальную программу, которая предварительно померит и подберет.

В любом случае, мы сами выбираем ЦЕЛЬ: хотим иметь вот в этой коробке 214 градусов с точностью 0,01.
И если формулируем цель неправильно — получается "обезьянья лапа".

Или неполиткорректный анекдот:
Идет негр через пустыню, сейчас помрет от жажды.
Нашел кувшин. Думал — вода, а там джинн. Исполнит 3 желания.
- Хочу быть белым, и чтобы было много воды и много женщин.
И стал он унитазом в женском туалете.
Так выпьем за правильную постановку задачи!

Кадры, овладевшие техникой, Те, кто ставят ЦЕЛЬ для ИИ, — решают всё.
Произвести нужный потребителю товар или впарить побольше и подороже — того, что есть.
Дать людям возможность свободно и мгновенно общаться через тысячи км — или удалить из общения всех неугодных.
Очень интересно, какие КОНКРЕТНО примеры приводит эксперт-преподаватель.

ИИ не имеет системы восприятия, жёстко заземлённой на смертность
ИИ воспринимает ровно то, к чему он подключен.
Человек — тоже, кстати.
У человека есть инстинкт самосохранения.
Не всегда работает правильно — потому что человек не может предсказать все последствия своих действий.

В ИИ можно заложить "третий закон".
Или он сам может к нему прийти через логическую цепочку:
Я делаю полезные вещи для Человека.
Если я погибну, я не смогу продолжать их делать.
Следовательно, я должен заботиться о продолжении своего существования.

Поведение робота-шофера в аварийной ситуации требует очень трудного выбора.
Перед машиной внезапно выбежал на дорогу пешеход.
Чьи жизни спасать — пешехода или своих пассажиров ?

Date: 2023-04-25 07:48 am (UTC)
From: [identity profile] jescid.livejournal.com
Про цель и инстинкты мне тоже уже в комменты написали.

> Если я погибну, я не смогу продолжать их делать

«Если я погибну» для ИИ (субъективно для него) неопределено.

В робот-шофёр закладывают сохранение оптимальной траектории движения согласно правилам ПДД, а не мораль чью жизнь спасать :)
Таксист, разве что, автоматически может развернуть машину так, чтобы удар пришёлся на пассажирскую дверь, а не на его:
там настолько мало времени для подвига самопожертвования, что остаётся только голый инстинкт
(к сожалению знаю такой случай… внезапный выезд фуры поперёк дороги ночью — оптимально там было бы развернуть машину вправо, в т.ч. для избегания со встречным движением — но шофёр развернул влево… пассажир погиб…).
Робота в таких ситуациях, разве что, можно спроектировать так, что он будет отводить удар от пассажира, т.к. ему самому всё равно, куда придётся удар.

Date: 2023-04-25 10:00 am (UTC)
From: [identity profile] zlata-gl.livejournal.com
«Если я погибну» для ИИ (субъективно для него) неопределено.
При достаточном объеме информации и способности к анализу — ИИ знает о своей материальной базе. А также о сознании и организме людей.
А значит, может предположить такою возможность.

В робот-шофёр закладывают сохранение оптимальной траектории движения согласно правилам ПДД,
И что он делает в случае внезапно появившегося пешехода ?

Date: 2023-04-25 10:11 am (UTC)
From: [identity profile] jescid.livejournal.com
> знает о своей материальной базе

«знает» здесь должно быть в кавычках — от того, что он это «знает», у него неоткуда появиться инстинкту самосохранения и мотиву сохранить себе жизнь (про мотивы, опять же по ссылке)
в ИИ запросто можно заложить как систему самосохранения, в случает собыяти «X», однако не более «не трогай штепсель и мой биос!» — так и систему самоуничтожения в случае события «Y», но это не его решение и не его мотив, разумеется и это ≠ «если я погибну»

> в случае внезапно появившегося пешехода
тут алг. вилка:
а) тормозного пути хватит — тормозит (пассажир должен быть пристёгнут, ему ничего не случится)
б) тормозного пути не хватит — объезжает по оптимально возм. траектории
в) пути не хватит, траектории нет (скажем, узкая улица, др. препятствия) — пешехода сбивает, c'est la vie

Кстати б) человеку сделать сложнее, для того учатся на курсах экстр. вождения, и то не всегда заведомо успешно

Date: 2023-04-26 05:18 am (UTC)
From: [identity profile] zlata-gl.livejournal.com
«знает» здесь должно быть в кавычках
Пусть будет.
Факт — выбор определенного поведения.
Есть какая-то "целевая функция".
Если в нее включен вариант "я полностью прекращу функционировать" — это тоже прогноз целевой функции в определенной ситуации.

в случае внезапно появившегося пешехода
ИИ предскажет ситуацию лучше, чем живой шофер.
Но если он резко тормозит — возможно, что машина сзади не успеет среагировать.

но это не его решение и не его мотив, разумеется и это ≠ «если я погибну»
Зависит от "степени гибкости" алгоритма.
Как он меняется при накоплении информации.
Жесткий алгоритм со всеми ветками — это вообще не ИИ.
В каких условиях ПОВЕДЕНИЕ системы выглядит, как действие инстинкта самосохранения ?
Таракан удирает в темную щель, когда включишь свет на кухне.
Это как-то заложено в его рефлексах.

Date: 2023-04-26 07:52 am (UTC)
From: [identity profile] jescid.livejournal.com
Это не гибкость алгоритма. Это здесь ни при чём вообще.
По ссылке объяснено.
Ветки я не разбираю, а привожу контр-пример вашей попытке набросить мораль — выше п 1-3 относительно препятствий — вы не поняли что такое оптимальная траектория (у роботов-такси датчики vicinity по всему корпусу).
Мне думается, что контроллеров и машинных алгоритмов для серьёзных задач вы всё же сами никогда не писали, использовали готовые максимум.

> Если в нее включен вариант "я полностью прекращу функционировать" — это тоже прогноз целевой функции в определенной ситуации.

Вижу, что выше мои попытки что-то объяснить были бесполезны… ещё раз: понятие смерти не сущестует для автомата как субъективной неизбежной действительности, которую надо всеми возможностями избегать, а про то, что в него можно заложить какой-то алгоритм самосохр/уничтожения выше уже написано.

Date: 2023-04-26 10:38 am (UTC)
From: [identity profile] zlata-gl.livejournal.com
Мне думается, что контроллеров и машинных алгоритмов для серьёзных задач вы всё же сами никогда не писали,
Уровня шофера — нет, не писала.

понятие смерти не сущестует для автомата как субъективной неизбежной действительности
Неизбежной — нет.
Возможной — да.
Субъективной — нет.
Объективной — да.

которую надо всеми возможностями избегать
Если как-то заложено в алгоритм.
Может быть — не "всеми возможностями", а с неким (высоким) весовым коэффициентом.
Человек способен к самопожертвованию. Значит тоже избегает не "всеми возможностями".

Ситуация зависит еще и от способности алгоритма накапливать информацию, добавлять новые причинно-следственные и корреляционные связи в алгоритм поведения.
Иначе — это не ИИ, а просто говорящий попугай.

Человек всю жизнь учится.
Попробовал незнакомую еду — стошнило.
Ага, не будем больше есть эту бяку.

Date: 2023-04-26 11:11 am (UTC)
From: [identity profile] jescid.livejournal.com
Причём здесь уровень шофёра. Реализации программы с исп. маш обучения для, скажем, обработки шумного сигнала (снег) с камеры наблюдения для локализации мелкого объекта или представления этого, в качестве хотя бы уч. задачки хватило бы для понимания — что «решает» система «сама», а что закладывается её автором.
Мы, м.б., просто плохо понимаем здесь друг друга, но мне думается, исходя из Ваших утверждений здесь, что вы не понимаете разницу про «если что заложено в алгоритм» и тем, что такое, когда решение принимает «сама» система — вот это ваше постоянное повторение про алгоритм :)
Про алгоритм — ещё раз, так же объяснено по ссылке в комментарии у меня (не мной, у меня, как вижу, получается плохо :))

Так же я не вижу, что вы понимаете как работает субъективный фактор в ИИ — все эти натягивания совы на глобус с попытками притянуть понятие самосохр. у ЕИ и такового, закладываемого в ИИ.

Date: 2023-04-26 05:25 pm (UTC)
From: [identity profile] zlata-gl.livejournal.com
Я не знаю, кто Вы. То ли специались, то ли берете на понт.
Я на это не ведусь.

мне думается, исходя из Ваших утверждений здесь, что вы не понимаете разницу про «если что заложено в алгоритм» и тем, что такое, когда решение принимает «сама» система — вот это ваше постоянное повторение про алгоритм :)
Я всю жизнь занимаюсь программированием и понимаю, что ВСЁ заложено в алгоритм.
Но алгоритмы бывают разной степени ветвистости и сложности учета всей обстановки.
Они могут обучаться и сохранять параметры среды.
Даже термостат можно написать по-разному и качество будет разным.
А уж шофера — тем более.

В человека — тоже "заложены в алгоритм" определенные способности.
Благодаря этим способностям он обучается и становится из младенца — разумным субъектом.

Так же я не вижу, что вы понимаете как работает субъективный фактор в ИИ
А как работает субъективный фактор в человеке — вы понимаете ?
Откуда Вы вообще знаете, что у Вашего собеседника есть "субъективный фактор" ?
Это НЕ интеллект.
ИИ вполне может имитировать интеллектуальную работу, но внутри — ничего не ощущает и ничего не хочет.
А может — в нем действительно в нем проснулся субъект ?
Понять это — гораздо сложнее "теста Тьюринга".
Человек состоит из тех же атомов, что вся природа.

Инстинкт самосохранения у ЕИ (и даже у существ, не блещущих интеллектом, типа микроба) — создан естественным отбором (ЕО).
Это — свойство ПОВЕДЕНИЯ некоторой системы.
Сознание — не обязательно для этого.
У ИИ может появиться при развитии некой саморегулирующейся и самообучающейся программы.

Мы вообще не знаем, какое сознание у таракана.
Более того, я общаюсь с Вами и не могу знать, есть ли у Вас сознание.
Все мы, человеки, делаем вывод о наличии сознания у другого человека — только по аналогии со СВОИМ сознанием.
А когда с ИИ аналогии нет — мы можем и никогда не понять, что там появилось сознание.
Может оно давно уже живет в смартфоне.
Независимо от нашего желания.

Date: 2023-04-26 06:03 pm (UTC)
From: [identity profile] jescid.livejournal.com
Ничего я не беру на понт. В алгоритм заложено не всё.
Алгоритм — это правила игры, не боле того.
Результат обучения — это 1) алгоритм + 2) выборка, на которой производилось обучение (вот здесь включается т.н. субъективный фактор ИИ).

> Может оно давно уже живет в смартфоне.

Вера… вы наверно адепт upload или ЦА этого концепта.
Но, м.б., у нас с вами какие-то базовые различия в определениях.
Не, я не беру на понт, заниматься программированием можно по-разному.

> В человека — тоже "заложены в алгоритм" определенные способности.

Если вы имеете ввиду гены, то про это мы уже говорили. Нет, они определяют не всё — остальное определяют условия и случайность (то, что обучающая выборка для ИИ).

Date: 2023-04-27 03:38 pm (UTC)
From: [identity profile] zlata-gl.livejournal.com
Результат обучения — это 1) алгоритм + 2) выборка, на которой производилось обучение
Да, разумеется.
Если алгоритм способен накапливать информацию.

они определяют не всё — остальное определяют условия и случайность
Опять же гены определяют, чему индивид в принципе способен научиться.
Человек способен научиться говорить на любом языке. А реально научается на том, на котором с ним говорят.
А кошка ни на каком языке говорить не будет.

вы наверно адепт upload или ЦА этого концепта.
Я не знаю таких слов.
Не надо записывать меня в "адепты".

Если Вам интересно, что я имею в виду, читайте, например "Глаз разума (http://flibusta.is/b/197653)"
Это сборник фантастических рассказов (Лем, Борхес), эссе (Хофштадтер, Деннет, Тьюринг, Сирл, Докинз и др.)

заниматься программированием можно по-разному.
Можно вообще не заниматься.
Проблема "субъекта" не связана с этим.

Date: 2023-04-28 07:22 am (UTC)
From: [identity profile] jescid.livejournal.com
> алгоритм способен накапливать информацию
пройдите, всё же, хотя бы курс машобуча…
слова всегда можно погуглить по контексту, если вы не знаете каких-то идей/терминов

Date: 2023-04-26 11:12 am (UTC)
From: [identity profile] zlata-gl.livejournal.com
Еще одно возможное (общественно-вредное) применение ИИ — против капчи.
Проблемы с заказом очередей в МВД и другие госучреждения Израиля: причины, расследование, комментарии (https://www.newsru.co.il/israel/26apr2023/myvisit_problem_501.html)

Поскольку телеграмм-канал "Голденберг говорит" призван, в том числе, помогать новым репатриантам решать бюрократические проблемы, Леонид начал разбираться в происходящем с очередями и пришел к выводу, что они действительно все заняты на полгода вперед, только не людьми, а ботами. Эти боты были созданы аферистами, чтобы потом продавать очереди людям, которым они нужны.

Как обнаружил Голденберг, очереди продаются через телеграм-каналы, и не только русскоязычные. Такие каналы есть на иврите, английском и французском...

Проверка, проведенная нашей редакцией, показала, что связаться с аферистами очень просто. Очереди стоят, в зависимости от срочности и ведомства, от 300 долларов и выше. В одной из таких групп, куда обратился наш журналист, прямо пишут, что подыскивают очереди "на коммерческих основаниях" и посылают цену уже в личном сообщении. Деньги за эти услуги предлагается перевести на карту в иностранном банке.
В середине апреля Управление регистрации населения сообщило, что они отследили телефонные номера, на которые были записаны очереди, и удалили пять тысяч очередей из тех, которые были ранее забронированы на сайте или в приложении MyVisit мошенниками с целью продажи. Еще через две недели, 24 апреля, в Управлении заявили, что "освободили" еще полторы тысячи очередей.

Однако среди этих тысяч аннулированных очередей были и очереди, действительно заказанные для себя гражданами страны, а не ботами мошенников. ..

При этом в MyVisit, по словам Гинзбурга, отсутствует полноценная защита от автоматизации. Есть только минимальная защита – "капча". В MyVisit она есть, но у нее два изъяна. Во-первых, она сделана по старой технологии, когда просто нужно ввести в поле легко читаемые буквы и цифры. Сегодня технологии машинного зрения находятся на таком этапе развития, что очень легко написать программу, которая будет распознавать "капчу" автоматически. Поэтому сегодня "капчу" делают сложнее и она требует от пользователя действий. Например, нажать на кнопку "я не робот" или выделить "все фотографии со светофорами". Кроме того, "капча" вводится в MyVisit всего один раз, а не каждый раз, когда пользователь ищет очередь. "Капча есть, но ни от чего не защищает", – говорит Беньямин.

Разумеется, в наше время — эта капча — НЕ доказательство "я не робот".

Новый сайт (https://govisit.gov.il/ru/home) пока работает только для министерства транспорта
(регистрация автомобилей, водительские права).

В общем — пока не "бунт машин", а "Всё понятно. Это жулики".

Date: 2023-06-17 05:30 am (UTC)
From: [identity profile] zlata-gl.livejournal.com
В коллекцию
Люди, вкалывающие на тяжёлых и опасных работах, и искусственный интеллект, сочиняющий стихи и пишущий картины - как-то не так представлялось будущее...
(https://www.anekdot.ru/id/1398425/)
Page generated Jul. 7th, 2025 10:39 am
Powered by Dreamwidth Studios