Загрузка...

Разворачиваем нейросеть локально/у себя на машине. LLM Local

Тема в разделе Статьи создана пользователем SDN 6 май 2025. (поднята 28 май 2025) 455 просмотров

  1. SDN
    SDN Автор темы 6 май 2025 Твой личный сетевик, +6 по МСК 273 26 июл 2022
    На дворе 2025 и не удивишь никого способностями машинного обучения, искусственным интеллектом и нейросетями. С их помощью начиная от простых пользователей до ученых достигают все новых и новых знаний о нашем мире, они помогают совершенствоваться в своей деятельности и решают сложные задачи.
    Это все конечно хорошо, но, важно помнить одно, ваши запросы, промты в облачных моделях, которые вы используете на сайтах, могут быть скомпрометированы злоумышленниками, как это было с DeepSeek, когда в сеть утекли личные данные пользователей и эти данные активно могут быть использованы против вас по ту сторону интернета.
    Поэтому, сегодня мы будем говорить о защищенности/конфидециальности ваших запросов, а именно, будем разворачивать подобные модели у себя локально. Локальная модель позволит вам забыть об утечках ваших запросов, ведь никто, кроме вас ей не владеет и также.

    Первым делом, нам нужно зайти на сайт https://lmstudio.ai/ и скачиваем ПО
    Скачивание

    Кто-то использует Python для этого, кто-то JS, мы же пойдем простым путем и скачаем установочный файл.

    [IMG]

    Важно помнить, что, для запуска модели, требуются мощности графического вычисления (GPU/видеокарта), у меня мак, а это значит, что, для запуска мне потребуется лишь ОЗУ.
    Выбор модели у нас под четвертым пунктом и там же происходит загрузка модели.
    [IMG]

    Программа сама вам будет подсказывать какая модель у вас будет корректно работать, а какой лучше пренебречь.
    [IMG]

    Префикс GGUF означает, что, данная модель сжата путем квантизирования. Это как с книгой, вот у вас есть большая книга и вам лень ее полностью читать, вместо этого вы выписываете самое необходимое.
    [IMG]
    Если использовать базовое квантование моделей Q4, то, вы особо не заметите разницы в выдаче ответов, а вес и использование мощностей заметно ниже.
    Вам также будут встречаться префикс MLX - это специальная модель для запуска на устройствах Apple (M series), но GGUF на маке тоже можно запустить.
    Скачиваем модель и запускаем.
    [IMG]
    [IMG]

    После запуска можно уже вводить ваши запросы, внизу отображается ваше потребление. Остановить модель - жмем Eject.
    [IMG]
    [IMG]
     
    Этот материал оказался полезным?
    Вы можете отблагодарить автора темы путем перевода средств на баланс
    Отблагодарить автора
  2. Laman
    Laman 6 май 2025 Гуру рвутся к власти. 9286 24 сен 2020
    Проверьте кто-то на хуйню пеже, мне впадлу, если нормально, поставлю себе и буду всякие непотребности делать
    там же можно задавать правила и цензуру?
     
    1. Посмотреть предыдущие комментарии (1)
    2. Laman
      SDN, ты нн, я тебе не верю
    3. SDN Автор темы
    4. Элейна
      Laman, ну я олламу юзал. Цензура встроена, тот же гемини от гугла режет ВСЕ
  3. PersonOfInterest
    PersonOfInterest 6 май 2025 Ever think you're being watched? 156 15 ноя 2022
    Еще-бы накодить виртуального перса и подключить к нейронке было-бы круто
     
    1. SDN Автор темы
      PersonOfInterest, так а сейчас же есть ИИ-агенты аля помощники, которые работает с жирой, конфлюенсом, гитом и уходят в ИДЕ. Как-то даже тест проводили, заменили работника моделями, которые выполняют его работу, тест показал 24% эффективности
  4. beginner13
    beginner13 6 май 2025 12 24 апр 2017
    Можно ли как-то ускорить ответы нейронки?
     
    1. SDN Автор темы
      beginner13, запускать более полные версии, они поддерживают большое количество токенов и отключать думающую версию
  5. Lyvironix
    Lyvironix 6 май 2025 1369 23 фев 2019
    сразу нахуй хочется в ебало дать, учитывая, что этого не было
     
    1. Посмотреть предыдущие комментарии (3)
    2. Lyvironix
      SDN, Так ты читал сам? (без наезда), никогда ничего не утекло. Wiz Research протестили сайт и нашли эту ебать тупую уязвимость, сообщили в дипсик и они пофиксили. Дальше виз ресерча данные не продвинулись
    3. SDN Автор темы
      Lyvironix, то, что они нашли и переданные данные об уязвимости, не значит, что, этим никто не воспользовался, тем более, что БД была в открытом доступе, достаточно зайти по ту сторону интернета и я более чем уверен, что, эти данные там есть. Когда ты выводишь сайт, машину в сеть интернет с белой адресацией, она автоматически подвергается ****форсу или сканером портов, достаточно посмотреть **** и сам поймешь об этом, тут тоже самое и это как минимум план действий, который я расписал.
  6. Lyvironix
    Lyvironix 6 май 2025 1369 23 фев 2019
    меньше q8 на маленьких моделях смысла юзать нет, а большие модели один хуй 90% не запустят
     
    1. SDN Автор темы
      Lyvironix, Что ты вообще несешь :shreklol: , твое сообщение к цитате никак не относится. Я говорил, что, q4 можно запустить, так как вес модели 4-5 гб, что позволяет запустить рядовому пользователю
Загрузка...
Top