В мире искусственного интеллекта (ИИ) и больших языковых моделей (БЯМ) нахождение подходящих данных для обучения является основным требованием для создания генеративных решений. Поскольку возможности генеративных ИИ-моделей, таких как Chat GPT и DALL-E, продолжают расти, возникает все большее искушение использовать их сгенерированные выходные данные в качестве обучающих данных для новых ИИ-систем. Однако недавние исследования показали опасные последствия этого, что привело к явлению, называемому "коллапсом модели". В исследовании, опубликованном в июле 2023 года, ученые из Университета Райса и Стэнфордского университета пришли к выводу, что обучение ИИ-моделей исключительно на выходных данных генеративного ИИ — это плохая идея. Они назвали свой отчет: "Самопотребляющие генеративные модели сходят с ума."#Binance #Aİ #tranding #OPN