зайки помогите с этим пишет "Ошибка: не найдено пользователей." import requests from bs4 import BeautifulSoup import csv import time from selenium import webdriver from selenium.webdriver.chrome.options import Options BASE_URL = "https://bigbookname.com" SEARCH_URL = "https://bigbookname.com/search?cit_uid=183" HEADERS = {"User-Agent": "Mozilla/5.0"} options = Options() options.add_argument("--headless") options.add_argument("--disable-gpu") options.add_argument("--window-size=1920x1080") driver = webdriver.Chrome(options=options) driver.get(SEARCH_URL) time.sleep(3) # Ожидаем загрузки страницы # Получаем HTML код через Selenium и передаем в BeautifulSoup soup = BeautifulSoup(driver.page_source, "html.parser") driver.quit() # Закрываем браузер # Находим ссылки на профили links = soup.find_all("a", class_="name_link") user_urls = [BASE_URL + link["href"] for link in links if link["href"].startswith("/")] if not user_urls: print("Ошибка: не найдено пользователей.") exit() # Открываем CSV для записи with open("bigbook_data.csv", "w", newline="", encoding="utf-8") as file: writer = csv.writer(file) writer.writerow(["Полное имя", "Город", "ID", "Краткая инфа", "Доп. инфа"]) for user_url in user_urls: response = requests.get(user_url, headers=HEADERS) if response.status_code != 200: continue user_soup = BeautifulSoup(response.text, "html.parser") # Извлекаем основные данные full_name_tag = user_soup.find("div", class_="field_data") city_tag = user_soup.find("a", class_="datalnk") id_tag = user_soup.find("div", class_="field_data", string=lambda x: x and x.startswith("id")) full_name = full_name_tag.text.strip() if full_name_tag else "" city = city_tag.text.strip() if city_tag else "" user_id = id_tag.text.strip() if id_tag else "" # Извлекаем "Краткую инфу" и "Доп. инфу" short_info_tag = user_soup.find("div", class_="profile_info_short") extra_info_tag = user_soup.find("div", class_="profile_info_full dop_paddtop") short_info = short_info_tag.text.strip() if short_info_tag else "" extra_info = extra_info_tag.text.strip() if extra_info_tag else "" # Записываем в CSV writer.writerow([full_name, city, user_id, short_info, extra_info]) print(f"Сохранено: {full_name}, {city}, {user_id}, {short_info}, {extra_info}") time.sleep(0) # Задержка для избежания блокировки print("Сбор данных завершен.") Python import requests from bs4 import BeautifulSoup import csv import time from selenium import webdriver from selenium.webdriver.chrome.options import Options BASE_URL = "https://bigbookname.com" SEARCH_URL = "https://bigbookname.com/search?cit_uid=183" HEADERS = {"User-Agent": "Mozilla/5.0"} options = Options() options.add_argument("--headless") options.add_argument("--disable-gpu") options.add_argument("--window-size=1920x1080") driver = webdriver.Chrome(options=options) driver.get(SEARCH_URL) time.sleep(3) # Ожидаем загрузки страницы # Получаем HTML код через Selenium и передаем в BeautifulSoup soup = BeautifulSoup(driver.page_source, "html.parser") driver.quit() # Закрываем браузер # Находим ссылки на профили links = soup.find_all("a", class_="name_link") user_urls = [BASE_URL + link["href"] for link in links if link["href"].startswith("/")] if not user_urls: print("Ошибка: не найдено пользователей.") exit() # Открываем CSV для записи with open("bigbook_data.csv", "w", newline="", encoding="utf-8") as file: writer = csv.writer(file) writer.writerow(["Полное имя", "Город", "ID", "Краткая инфа", "Доп. инфа"]) for user_url in user_urls: response = requests.get(user_url, headers=HEADERS) if response.status_code != 200: continue user_soup = BeautifulSoup(response.text, "html.parser") # Извлекаем основные данные full_name_tag = user_soup.find("div", class_="field_data") city_tag = user_soup.find("a", class_="datalnk") id_tag = user_soup.find("div", class_="field_data", string=lambda x: x and x.startswith("id")) full_name = full_name_tag.text.strip() if full_name_tag else "" city = city_tag.text.strip() if city_tag else "" user_id = id_tag.text.strip() if id_tag else "" # Извлекаем "Краткую инфу" и "Доп. инфу" short_info_tag = user_soup.find("div", class_="profile_info_short") extra_info_tag = user_soup.find("div", class_="profile_info_full dop_paddtop") short_info = short_info_tag.text.strip() if short_info_tag else "" extra_info = extra_info_tag.text.strip() if extra_info_tag else "" # Записываем в CSV writer.writerow([full_name, city, user_id, short_info, extra_info]) print(f"Сохранено: {full_name}, {city}, {user_id}, {short_info}, {extra_info}") time.sleep(0) # Задержка для избежания блокировки print("Сбор данных завершен.")
1vosh, 29авг 2024 Так же заполните эту форму форму: 1. Откуда вы узнали о форуме 2. Ваши профили с других форумов 2.1. Ваши профили с этого форума, в т.ч. заблокированные 3. Квитанция пополнения баланса (если пополняли) 4. 5. Цель пребывания на форуме? (создать нфт тиму, создать тиму по трафу, начать скупку каналов и т.д.) 6. Где ранее продавали/покупали товар. 6.1. С кем ранее работали. Все слова подкреплять доказательствами. Голый текст по типу "Рассказал друг", без каких-либо доказательств не принимается
danil_gh, родился в мурманске,рассказал друг,профилей нет(не учусь)квитанции пополнения прикреплю,цель создать нфт тиму,создать тиму по трафу,начать скупку каналов и тд.жвачки продавал в школе.с одноклассниками.
Ну у тебя user_urls пустой, значит такие link["href"].startswith("/") элементы не находятся на странице. Возможно у тебя страница не берется просто, разбирайся с этим, дебажь