Отчет: OpenAI сдерживает функции изображений GPT-4 из-за опасений по поводу конфиденциальности


ИИ опознает лицо женщины.

Виттайя Прасонгсин (Getty Images)

OpenAI тестирует свою мультимодальную версию GPT-4 с поддержкой распознавания изображений перед запланированным широким выпуском. Однако публичный доступ ограничивается из-за опасений по поводу его способности потенциально распознавать конкретных людей, согласно сообщению New York Times во вторник.

Когда в начале этого года OpenAI анонсировала GPT-4, компания подчеркнула мультимодальные возможности модели ИИ. Это означало, что модель могла не только обрабатывать и генерировать текст, но также анализировать и интерпретировать изображения, открывая новое измерение взаимодействия с моделью ИИ.

После этого объявления OpenAI сделала шаг вперед в своих возможностях обработки изображений в сотрудничестве со стартапом Be My Eyes, который разрабатывает приложение для описания изображений для слепых пользователей, помогая им интерпретировать свое окружение и более независимо взаимодействовать с миром.

В отчете New York Times рассказывается об опыте Джонатана Мозена, слепого пользователя Be My Eyes из Новой Зеландии. Мосену понравилось использовать приложение для идентификации предметов в гостиничном номере, таких как дозаторы шампуня, а также для точной интерпретации изображений и их изображений в социальных сетях. Однако Мосен выразил разочарование, когда приложение недавно перестало предоставлять информацию о лицах, отображая сообщение о том, что лица были скрыты из соображений конфиденциальности.

Сандхини Агарвал, исследователь политики OpenAI, подтвердила Times, что именно из-за проблем с конфиденциальностью организация сократила возможности распознавания лиц GPT-4. Система OpenAI в настоящее время способна идентифицировать публичных деятелей, например тех, у кого есть страница в Википедии, но OpenAI обеспокоен тем, что эта функция потенциально может нарушить законы о конфиденциальности в таких регионах, как Иллинойс и Европа, где использование биометрической информации требует явного согласия граждан.

Кроме того, OpenAI выразил беспокойство по поводу того, что Be My Eyes может неправильно истолковать или представить в ложном свете аспекты лиц людей, такие как пол или эмоциональное состояние, что приведет к неуместным или вредным результатам. OpenAI стремится решить эти и другие проблемы безопасности до того, как возможности анализа изображений GPT-4 станут широко доступными. Агарвал сказал Times: «Мы очень хотим, чтобы это был двусторонний разговор с общественностью. Если то, что мы слышим, похоже на «на самом деле мы ничего из этого не хотим», это то, с чем мы очень согласны».

Несмотря на эти меры предосторожности, также были случаи, когда GPT-4 фальсифицировал или производил ложную идентификацию, что подчеркивает сложность создания полезного инструмента, который не будет давать незрячим пользователям неточную информацию.

Тем временем Microsoft, крупный инвестор OpenAI, тестирует ограниченное развертывание инструмента визуального анализа в своем чат-боте Bing на основе искусственного интеллекта, основанном на технологии GPT-4. Bing Chat недавно был замечен в Twitter решение CAPTCHA тесты, предназначенные для отсеивания ботов, которые также могут задержать более широкий выпуск функций обработки изображений Bing.

Google также недавно представила функции анализа изображений в своем чат-боте Bard, который позволяет пользователям загружать изображения для распознавания или обработки Bard. В наших тестах эта функция могла решать CAPTCHA на основе слов, хотя и не всегда идеально. Некоторые сервисы, такие как Roblox, уже используют очень сложные CAPTCHA, которые, вероятно, опережают аналогичные улучшения в компьютерном зрении.

Такое компьютерное зрение на основе искусственного интеллекта может рано или поздно прийти к каждому устройству, но также ясно, что компаниям необходимо будет решить сложности, прежде чем мы сможем увидеть широкие выпуски с минимальным этическим воздействием.