Загрузка...

Помогите чуть плиз

Тема в разделе Python создана пользователем danil_gh 20 мар 2025. 86 просмотров

  1. danil_gh
    danil_gh Автор темы 20 мар 2025 12 9 авг 2020
    зайки помогите с этим
    пишет "Ошибка: не найдено пользователей."


    Python
    import requests
    from bs4 import BeautifulSoup
    import csv
    import time
    from selenium import webdriver
    from selenium.webdriver.chrome.options import Options

    BASE_URL = "https://bigbookname.com"
    SEARCH_URL = "https://bigbookname.com/search?cit_uid=183"
    HEADERS = {"User-Agent": "Mozilla/5.0"}


    options = Options()
    options.add_argument("--headless")
    options.add_argument("--disable-gpu")
    options.add_argument("--window-size=1920x1080")


    driver = webdriver.Chrome(options=options)
    driver.get(SEARCH_URL)
    time.sleep(3) # Ожидаем загрузки страницы

    # Получаем HTML код через Selenium и передаем в BeautifulSoup
    soup = BeautifulSoup(driver.page_source, "html.parser")
    driver.quit() # Закрываем браузер

    # Находим ссылки на профили
    links = soup.find_all("a", class_="name_link")
    user_urls = [BASE_URL + link["href"] for link in links if link["href"].startswith("/")]

    if not user_urls:
    print("Ошибка: не найдено пользователей.")
    exit()

    # Открываем CSV для записи
    with open("bigbook_data.csv", "w", newline="", encoding="utf-8") as file:
    writer = csv.writer(file)
    writer.writerow(["Полное имя", "Город", "ID", "Краткая инфа", "Доп. инфа"])

    for user_url in user_urls:
    response = requests.get(user_url, headers=HEADERS)
    if response.status_code != 200:
    continue

    user_soup = BeautifulSoup(response.text, "html.parser")

    # Извлекаем основные данные
    full_name_tag = user_soup.find("div", class_="field_data")
    city_tag = user_soup.find("a", class_="datalnk")
    id_tag = user_soup.find("div", class_="field_data", string=lambda x: x and x.startswith("id"))

    full_name = full_name_tag.text.strip() if full_name_tag else ""
    city = city_tag.text.strip() if city_tag else ""
    user_id = id_tag.text.strip() if id_tag else ""

    # Извлекаем "Краткую инфу" и "Доп. инфу"
    short_info_tag = user_soup.find("div", class_="profile_info_short")
    extra_info_tag = user_soup.find("div", class_="profile_info_full dop_paddtop")

    short_info = short_info_tag.text.strip() if short_info_tag else ""
    extra_info = extra_info_tag.text.strip() if extra_info_tag else ""

    # Записываем в CSV
    writer.writerow([full_name, city, user_id, short_info, extra_info])

    print(f"Сохранено: {full_name}, {city}, {user_id}, {short_info}, {extra_info}")

    time.sleep(0) # Задержка для избежания блокировки

    print("Сбор данных завершен.")
     
  2. 1vosh
    1vosh 20 мар 2025 2 29 авг 2024
    1. danil_gh Автор темы
      1vosh, 29авг 2024
      Так же заполните эту форму форму:
      1. Откуда вы узнали о форуме
      2. Ваши профили с других форумов
      2.1. Ваши профили с этого форума, в т.ч. заблокированные
      3. Квитанция пополнения баланса (если пополняли)
      4.
      5. Цель пребывания на форуме? (создать нфт тиму, создать тиму по трафу, начать скупку каналов и т.д.)
      6. Где ранее продавали/покупали товар.
      6.1. С кем ранее работали.

      Все слова подкреплять доказательствами. Голый текст по типу "Рассказал друг", без каких-либо доказательств не принимается
      [IMG]
    2. 1vosh
      danil_gh, родился в мурманске,рассказал друг,профилей нет(не учусь)квитанции пополнения прикреплю,цель создать нфт тиму,создать тиму по трафу,начать скупку каналов и тд.жвачки продавал в школе.с одноклассниками.
    3. danil_gh Автор темы
      1vosh, хорошо, верификация пройдена удачного посещения форума ahhhhh nah
  3. danil_gh
    danil_gh Автор темы 20 мар 2025 12 9 авг 2020
    Забыл сказать что до from selenium import было все ок, добавил для решения динамической js
     
    1. danil_gh Автор темы
      Экстази, он только подписал действие, не надо тут
  4. Y4sperMaglot
    Ну у тебя user_urls пустой, значит такие
    ⁡link["href"].startswith("/")
    ⁡ элементы не находятся на странице. Возможно у тебя страница не берется просто, разбирайся с этим, дебажь
     
Загрузка...
Top