Оригинал материала: https://3dnews.kz/1090864

У больших языковых ИИ-моделей проявилась способность проводить аналогии

Большие языковые модели, такие как OpenAI GPT-3, демонстрируют способность к решению логических задач, проводя аналогии — это роднит их с образом мышления человека, который находит решения новых задач, сравнивая их с уже известными, гласят результаты нового исследования учёных из Калифорнийского университета в Лос-Анджелесе (США).

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Авторы исследования предложили GPT-3 несколько логических задач, которые можно решить, применив известную схему к новой ситуации, и обнаружили, что нейросеть действительно может рассуждать по аналогии, пользуясь этим инструментом так же эффективно или даже более эффективно, чем человек. Учёные считают, что эти возможности модель получила за счёт большого объёма и разнообразия обучающих данных, хотя напрямую таким методам рассуждений систему не обучали.

Психологи склонны считать, что человек рассуждает по аналогии, применяя «систематическое сравнение знаний, основанное на явных реляционных представлениях», то есть связях между элементами. Но механизмы рассуждения по аналогии у машины понятны не до конца — учёные допускают, что у ИИ-модели может быть некое сходство с блоками человеческого мышления, но пока нельзя исключать вероятности, что этот интеллектуальный процесс фундаментально отличается от человеческого.

Допускается и более простое объяснение: GPT-3 был обучен на огромном пласте человеческого языка, который сам по себе является плодом человеческой интеллектуальной эволюции и богат аналогиями — иными словами, ИИ «фундаментально паразитирует на естественном человеческом интеллекте», как выразились исследователи.



Оригинал материала: https://3dnews.kz/1090864