Загрузка...

Your neurons

Thread in Neural networks created by los_santos Jan 11, 2025. 268 views

  1. los_santos
    los_santos Topic starter Jan 11, 2025 :interesting: 74 Apr 27, 2021
    Есть люди кто пробовал делать свои нейронки или кто пробовал обучать нейронку для своих целей, просветите нас в этом деле, насколько это сложно и мб гайды какие-то есть?
    Есть люди кто пробовал делать свои нейронки или кто пробовал обучать нейронку для своих целей, просветите нас в этом деле, насколько это сложно и мб гайды какие-то есть?
     
  2. Монополист
    Монополист Jan 11, 2025 https://lolz.live/threads/8640118/ - обмен всего и вся 28,299 Mar 6, 2021
    Легко
     
    1. los_santos Topic starter
  3. RSPARKER
    RSPARKER Jan 11, 2025 263 Feb 19, 2018
    Ресурсы ведь огромные нужны чтоб для начало развернуть эту нейронку свою
     
    1. los_santos Topic starter
      RSPARKER, Да чет в гайдах пишут что можно в домашнем варианте запустить и обучить
  4. bibidzhon
    bibidzhon Jan 11, 2025 1 TON = 3.02 USD 0 Dec 3, 2022
    Все опирается в материалы для обучения.
    Обучал сетку для капчи лесты.
     
    1. View previous comments (3)
    2. bibidzhon
      los_santos, можно все, но нужно писать фильтры. ИИ могут давать черные ответы(прим. Взлом гпт через промт и получение рецепта наркоты)
    3. los_santos Topic starter
      bibidzhon, Может быть знаешь хорошие гайды по сеткам? Мб курсы какие-то конкретные
  5. sotru
    sotru Jan 25, 2025 мы многих ограбили, чтобы попить чая с ништяками 457 Nov 24, 2017
    Я обучал LoRA на LLM. Если сказать по мегапростому, для незнающих, то я свой маленький датасет натягивал на большую модель. LLM создается так же, только без натягиваний, собирается ОГРОМНЫЙ датасет, потом обучается, долго обучается, нужно мощное железо под такие задачи. И огромный датасет, я вот тренил когда лору, 2 тыщи строк датасета диалогов собрал, вообще никакого влияния на модель не было, т.к модель была большая. Короче, тебе нужно датасет тысяч 30-50 строчек минимум (и то это будет очень тупенькая модель), а гайды в инете найдешь конкретные по обучению, или GPT спроси. (это человеческий ответ)
    ====
    Я обучал LoRA на LLM. Если объяснить совсем просто, то это процесс, когда ты берешь уже обученную большую модель и добавляешь свои данные, чтобы она подстроилась под твою задачу. В случае LoRA я использовал маленький датасет (2 тысячи строк диалогов), но большого эффекта не получил, потому что модель сама по себе была слишком крупной.
    Если говорить о создании полной LLM с нуля, то это совсем другая история. Тут нужен огромный датасет (десятки или сотни миллионов строк) и мощное железо, например, несколько GPU уровня A100. Даже для минимального результата тебе понадобится хотя бы 30-50 тысяч строк данных, но такая модель будет очень простой.
    Лучше начать с дообучения (fine-tuning) уже готовых моделей, а конкретные гайды можешь найти в интернете или спросить у GPT — он подскажет. (это нейронка дополнила ответ мой, попросил украсить)
     
  6. Тиджой
    Тиджой Jan 25, 2025 Banned 3188 Nov 13, 2021
    нужны огромные ресурсы, чтобы она хоть что-то ± адекватное высрала
     
Loading...
Top