Загрузка...

Свои нейронки

Тема в разделе Нейросети создана пользователем los_santos 11 янв 2025. 250 просмотров

Загрузка...
  1. los_santos
    los_santos Автор темы 11 янв 2025 :interesting: 73 27 апр 2021
    Есть люди кто пробовал делать свои нейронки или кто пробовал обучать нейронку для своих целей, просветите нас в этом деле, насколько это сложно и мб гайды какие-то есть?
    Есть люди кто пробовал делать свои нейронки или кто пробовал обучать нейронку для своих целей, просветите нас в этом деле, насколько это сложно и мб гайды какие-то есть?
     
  2. Монополист
    Монополист 11 янв 2025 https://lolz.live/threads/8640118/ - обмен всего и вся 28 080 6 мар 2021
    Легко
     
  3. RSPARKER
    RSPARKER 11 янв 2025 263 19 фев 2018
    Ресурсы ведь огромные нужны чтоб для начало развернуть эту нейронку свою
     
    11 янв 2025 Изменено
    1. los_santos Автор темы
      RSPARKER, Да чет в гайдах пишут что можно в домашнем варианте запустить и обучить
  4. bibidzhon
    bibidzhon 11 янв 2025 1 TON = 3.02 USD 0 3 дек 2022
    Все опирается в материалы для обучения.
    Обучал сетку для капчи лесты.
     
    1. Посмотреть предыдущие комментарии (2)
    2. los_santos Автор темы
      bibidzhon, А если засунуть её в аккаунт в соц сетях? И сделать иерархию, чтобы у разных пользователей, был разный доступ к управлению кораблем
    3. bibidzhon
      los_santos, можно все, но нужно писать фильтры. ИИ могут давать черные ответы(прим. Взлом гпт через промт и получение рецепта наркоты)
    4. los_santos Автор темы
      bibidzhon, Может быть знаешь хорошие гайды по сеткам? Мб курсы какие-то конкретные
  5. sotru
    sotru 25 янв 2025 мы многих ограбили, чтобы попить чая с ништяками 460 24 ноя 2017
    Я обучал LoRA на LLM. Если сказать по мегапростому, для незнающих, то я свой маленький датасет натягивал на большую модель. LLM создается так же, только без натягиваний, собирается ОГРОМНЫЙ датасет, потом обучается, долго обучается, нужно мощное железо под такие задачи. И огромный датасет, я вот тренил когда лору, 2 тыщи строк датасета диалогов собрал, вообще никакого влияния на модель не было, т.к модель была большая. Короче, тебе нужно датасет тысяч 30-50 строчек минимум (и то это будет очень тупенькая модель), а гайды в инете найдешь конкретные по обучению, или GPT спроси. (это человеческий ответ)
    ====
    Я обучал LoRA на LLM. Если объяснить совсем просто, то это процесс, когда ты берешь уже обученную большую модель и добавляешь свои данные, чтобы она подстроилась под твою задачу. В случае LoRA я использовал маленький датасет (2 тысячи строк диалогов), но большого эффекта не получил, потому что модель сама по себе была слишком крупной.
    Если говорить о создании полной LLM с нуля, то это совсем другая история. Тут нужен огромный датасет (десятки или сотни миллионов строк) и мощное железо, например, несколько GPU уровня A100. Даже для минимального результата тебе понадобится хотя бы 30-50 тысяч строк данных, но такая модель будет очень простой.
    Лучше начать с дообучения (fine-tuning) уже готовых моделей, а конкретные гайды можешь найти в интернете или спросить у GPT — он подскажет. (это нейронка дополнила ответ мой, попросил украсить)
     
  6. Тиджой
    Тиджой 25 янв 2025 Заблокирован(а) 3208 13 ноя 2021
    нужны огромные ресурсы, чтобы она хоть что-то ± адекватное высрала
     
Top