Загрузка...

Разворачиваем нейросеть локально/у себя на машине. LLM Local

Тема в разделе Статьи создана пользователем SDN 6 май 2025. (поднята 28 май 2025) 383 просмотра

Загрузка...
  1. SDN
    SDN Автор темы 6 май 2025 Твой личный сетевик, +6 по МСК 272 26 июл 2022
    На дворе 2025 и не удивишь никого способностями машинного обучения, искусственным интеллектом и нейросетями. С их помощью начиная от простых пользователей до ученых достигают все новых и новых знаний о нашем мире, они помогают совершенствоваться в своей деятельности и решают сложные задачи.
    Это все конечно хорошо, но, важно помнить одно, ваши запросы, промты в облачных моделях, которые вы используете на сайтах, могут быть скомпрометированы злоумышленниками, как это было с DeepSeek, когда в сеть утекли личные данные пользователей и эти данные активно могут быть использованы против вас по ту сторону интернета.
    Поэтому, сегодня мы будем говорить о защищенности/конфидециальности ваших запросов, а именно, будем разворачивать подобные модели у себя локально. Локальная модель позволит вам забыть об утечках ваших запросов, ведь никто, кроме вас ей не владеет и также.

    Первым делом, нам нужно зайти на сайт https://lmstudio.ai/ и скачиваем ПО
    Скачивание

    Кто-то использует Python для этого, кто-то JS, мы же пойдем простым путем и скачаем установочный файл.

    [IMG]

    Важно помнить, что, для запуска модели, требуются мощности графического вычисления (GPU/видеокарта), у меня мак, а это значит, что, для запуска мне потребуется лишь ОЗУ.
    Выбор модели у нас под четвертым пунктом и там же происходит загрузка модели.
    [IMG]

    Программа сама вам будет подсказывать какая модель у вас будет корректно работать, а какой лучше пренебречь.
    [IMG]

    Префикс GGUF означает, что, данная модель сжата путем квантизирования. Это как с книгой, вот у вас есть большая книга и вам лень ее полностью читать, вместо этого вы выписываете самое необходимое.
    [IMG]
    Если использовать базовое квантование моделей Q4, то, вы особо не заметите разницы в выдаче ответов, а вес и использование мощностей заметно ниже.
    Вам также будут встречаться префикс MLX - это специальная модель для запуска на устройствах Apple (M series), но GGUF на маке тоже можно запустить.
    Скачиваем модель и запускаем.
    [IMG]
    [IMG]

    После запуска можно уже вводить ваши запросы, внизу отображается ваше потребление. Остановить модель - жмем Eject.
    [IMG]
    [IMG]
     
    Этот материал оказался полезным?
    Вы можете отблагодарить автора темы путем перевода средств на баланс
    Отблагодарить автора
  2. Laman
    Laman 6 май 2025 Гуру рвутся к власти. 9063 24 сен 2020
    Проверьте кто-то на хуйню пеже, мне впадлу, если нормально, поставлю себе и буду всякие непотребности делать
    там же можно задавать правила и цензуру?
     
    1. Посмотреть предыдущие комментарии (1)
    2. Laman
      SDN, ты нн, я тебе не верю
    3. Элейна
      Laman, ну я олламу юзал. Цензура встроена, тот же гемини от гугла режет ВСЕ
  3. PersonOfInterest
    PersonOfInterest 6 май 2025 Дуров сидит тут -> https://t.me/Kanalchik_alexa 156 15 ноя 2022
    Еще-бы накодить виртуального перса и подключить к нейронке было-бы круто
     
    1. SDN Автор темы
      PersonOfInterest, так а сейчас же есть ИИ-агенты аля помощники, которые работает с жирой, конфлюенсом, гитом и уходят в ИДЕ. Как-то даже тест проводили, заменили работника моделями, которые выполняют его работу, тест показал 24% эффективности
  4. beginner13
    beginner13 6 май 2025 12 24 апр 2017
    Можно ли как-то ускорить ответы нейронки?
     
    1. SDN Автор темы
      beginner13, запускать более полные версии, они поддерживают большое количество токенов и отключать думающую версию
  5. Lyvironix
    Lyvironix 6 май 2025 1384 23 фев 2019
    сразу нахуй хочется в ебало дать, учитывая, что этого не было
     
    1. Посмотреть предыдущие комментарии (2)
    2. SDN Автор темы
      Lyvironix, скажу по секрету еще, ИИ передают истории запросов третьим лицам
    3. Lyvironix
      SDN, Так ты читал сам? (без наезда), никогда ничего не утекло. Wiz Research протестили сайт и нашли эту ебать тупую уязвимость, сообщили в дипсик и они пофиксили. Дальше виз ресерча данные не продвинулись
    4. SDN Автор темы
      Lyvironix, то, что они нашли и переданные данные об уязвимости, не значит, что, этим никто не воспользовался, тем более, что БД была в открытом доступе, достаточно зайти по ту сторону интернета и я более чем уверен, что, эти данные там есть. Когда ты выводишь сайт, машину в сеть интернет с белой адресацией, она автоматически подвергается ****форсу или сканером портов, достаточно посмотреть **** и сам поймешь об этом, тут тоже самое и это как минимум план действий, который я расписал.
  6. Lyvironix
    Lyvironix 6 май 2025 1384 23 фев 2019
    меньше q8 на маленьких моделях смысла юзать нет, а большие модели один хуй 90% не запустят
     
    1. SDN Автор темы
      Lyvironix, Что ты вообще несешь :shreklol: , твое сообщение к цитате никак не относится. Я говорил, что, q4 можно запустить, так как вес модели 4-5 гб, что позволяет запустить рядовому пользователю
Top