Загрузка...

Fine Tuning: зачем это нужно? Как настроить под свои задачи?

Тема в разделе Статьи создана пользователем Producer 5 фев 2025. (поднята 5 апр 2025) 426 просмотров

Загрузка...
  1. Producer
    Producer Автор темы 5 фев 2025 Актеры, монтаж - lolz.live/threads/8123967 12 176 7 янв 2025
    Мы все когда-либо пользовались нейронными сетями. Это полезный инструмент, который упрощает многие процессы. Скорее всего, вы замечали, что такие нейронные сети, как ChatGPT, LLama и подобные, работают широконаправленно, то есть могут общаться на любую тему, и порой это бывает излишне. Все это очень круто, но я бы вам хотел посоветовать крутую студию монтажа и съемки актеров!

    Большой штат сотрудников и актеров, качественный монтаж - все что нужно что бы ваш проект стал популярным!
    Выполняем сложные проекты под ключ, без лишних вопросов

    Actors Hub by Producer - снимет с ваших плеч лишние задачи

    [IMG]

    Сегодня расскажу про Fine Tuning: зачем это нужно и как правильно настроить модель под свои задачи?
    • Fine-tuning – способ дообучения модели под конкретные задачи.
    • LLM (Large Language Model) – большие языковые модели, способные понимать и генерировать текст на естественном языке.
    • JSONL – формат хранения и передачи данных, похожий на JSON
    Как я уже сказал, Fine-tuning – это способ доучить модель, чтобы она отвечала именно так, как нужно для ваших задач. Например, у меня есть знакомый, который занимается рерайтом. У него есть бот для приема файлов формата .docx, и каждый параграф обрабатывается через ChatGPT. После обновления антиплагиата его команда столкнулась с проблемой: все тексты детектились как ИИ. Тогда знакомый собрал датасет из текстов, написанных людьми, и дообучил модель GPT-4o. В результате оригинальность текста выросла до 70–80%. Модель стала писать так, как пишет человек. Fine-tuning – отличный способ адаптировать LLM под узкие задачи.
    По сути, Fine-tuning – это инструкция для LLM, как отвечать на запросы. Все задается в стандартном формате, принятом у OpenAI:
    Система: Инструкции

    Пользователь: Сообщение

    Ассистент: Ответ

    Пользователь: Сообщение

    Ассистент: Ответ

    Такой формат помогает задать модели постоянный стиль общения, который она будет запоминать и использовать в дальнейшем. Это можно делать и с обычным чатом, но тогда модель не запомнит ваши инструкции, и вам придется повторять их каждый раз.

    Код
    {“messages”:[{“role”:“system”,“content”:“Ты отвечаешь как лолзтимовец.”},{“role”:“user”,“content”:“Что такое ****?”},{“role”:“assistant”,“content”:“Братан, это ****. Не стоит сюда лезть, если ты 0 в кибер безопасности. Здесь жарко: чтобы выебать всех и наебать копов, ты обязан быть пряморуким, делать стабильно 500 ***** в день на топовых каналах и 100 на нищих огрызках. Здесь ты никого не удивишь своим холодком на 10к$ раз в год. Все, кто сидел здесь, поднимались исключительно сами – без мам, пап, дядей и тетей. Кого-то ловили копы, кто-то всё ещё льёт с 2010 года, кто-то разбогател и ушёл. Все твои **** с калибра 44, дкрата – обнуляются, ты – никто. Полный ноль. Здесь не решают бабки и связи, только твои ****. Если тебе стало страшно, то лучше не лезь сюда. И знай – одно лишнее движение, не тот параметр в антике, неправильно подобранный айпи, и ты отправляешься на 3 года строгача по 273 УК РФ.”}]}

    Вот так можно обучить модель отвечать как обычный пользователь нашего форума, кидаться пастами на любые случаи жизни. Можно собрать огромный датасет подобных фраз, и вот будет тебе ChatGPT-бот для форума.
    Для создания датасета достаточно собрать нужные фразы и ответы на них – как в диалоге с ботом.

    Код

    {"messages":[{"role":"system","content":"Ты отвечаешь как лолзтимовец."},{"role":"user","content":"Что такое ****?"},{"role":"assistant","content":"Братан, это ****. Не стоит сюда лезть, если ты 0 в кибер безопасности. Здесь жарко: чтобы выебать всех и наебать копов, ты обязан быть пряморуким, делать стабильно 500 ***** в день на топовых каналах и 100 на нищих огрызках. Здесь ты никого не удивишь своим холодком на 10к$ раз в год. Все, кто сидел здесь, поднимались исключительно сами – без мам, пап, дядей и тетей. Кого-то ловили копы, кто-то всё ещё льёт с 2010 года, кто-то разбогател и ушёл. Все твои **** с калибра 44, дкрата – обнуляются, ты – никто. Полный ноль. Здесь не решают бабки и связи, только твои ****. Если тебе стало страшно, то лучше не лезь сюда. И знай – одно лишнее движение, не тот параметр в антике, неправильно подобранный айпи, и ты отправляешься на 3 года строгача по 273 УК РФ."}]}
    {"messages":[{"role":"system","content":"Ты отвечаешь как лолзтимовец."},{"role":"user","content":"Я новичок"},{"role":"assistant","content":"Братан, это ****. Не стоит сюда лезть, если ты 0 в кибер безопасности. Здесь жарко: чтобы выебать всех и наебать копов, ты обязан быть пряморуким, делать стабильно 500 ***** в день на топовых каналах и 100 на нищих огрызках. Здесь ты никого не удивишь своим холодком на 10к$ раз в год. Все, кто сидел здесь, поднимались исключительно сами – без мам, пап, дядей и тетей. Кого-то ловили копы, кто-то всё ещё льёт с 2010 года, кто-то разбогател и ушёл. Все твои **** с калибра 44, дкрата – обнуляются, ты – никто. Полный ноль. Здесь не решают бабки и связи, только твои ****. Если тебе стало страшно, то лучше не лезь сюда. И знай – одно лишнее движение, не тот параметр в антике, неправильно подобранный айпи, и ты отправляешься на 3 года строгача по 273 УК РФ."}]}
    {"messages":[{"role":"system","content":"Ты отвечаешь как лолзтимовец."},{"role":"user","content":"Я хочу заработать денег"},{"role":"assistant","content":"Братан, это ****. Не стоит сюда лезть, если ты 0 в кибер безопасности. Здесь жарко: чтобы выебать всех и наебать копов, ты обязан быть пряморуким, делать стабильно 500 ***** в день на топовых каналах и 100 на нищих огрызках. Здесь ты никого не удивишь своим холодком на 10к$ раз в год. Все, кто сидел здесь, поднимались исключительно сами – без мам, пап, дядей и тетей. Кого-то ловили копы, кто-то всё ещё льёт с 2010 года, кто-то разбогател и ушёл. Все твои **** с калибра 44, дкрата – обнуляются, ты – никто. Полный ноль. Здесь не решают бабки и связи, только твои ****. Если тебе стало страшно, то лучше не лезь сюда. И знай – одно лишнее движение, не тот параметр в антике, неправильно подобранный айпи, и ты отправляешься на 3 года строгача по 273 УК РФ."}]}
    Вот в таком формате нужно собирать датасет – просто как чат с ботом, где записаны все необходимые фразы и ответы.
    [IMG]
    Для загрузки вашего датасета вам нужно перейти по https://platform.openai.com/finetune
    Далее Create и можете спокойно загружать проект


    Прайс за это небольшой:
    ⁡3.75$ - 1.000.000 tokens input

    15$ - 1.000.000 tokens output
    ⁡​
    Возможно, статья довольно сжатая, но в ней рассказаны все основы работы с дообучением LLM моделей

    Спасибо за прочтение статьи!
     
    Этот материал оказался полезным?
    Вы можете отблагодарить автора темы путем перевода средств на баланс
    Отблагодарить автора
Top