Загрузка...

Получаем много ****** на халяву с помощью Python

Thread in Articles created by BenediktShmal Mar 21, 2025. (bumped Jun 8, 2025) 1015 views

  1. BenediktShmal
    BenediktShmal Topic starter Mar 21, 2025 25 Feb 23, 2025
    Доброй ночи, жители форума. Вас приветствует новокек, и в этой статье я хочу рассказать вам как можно на халяву получать множество ****** из разных стран.

    Давайте начнем. Для работы скрипта нам понадобится Python. Установите версию 3.10.6. После установки Python необходимо установить библиотеки для получения ****** и проверки их работоспособности.

    Python
    pip install requests && pip install lxml && pip install beautifulsoup4 && pip
    install cfscrape

    После установки библиотек создайте файл с расширением .py, в который мы вставим следующий код. Он отвечает за парс ****** с различных сайтов.

    Python
    import cfscrape
    from bs4 import BeautifulSoup
    from datetime import date

    def main2():
    try:
    print("Start 2 step || Site - free-proxy-list.net")
    scraper = cfscrape.create_scraper()
    r = scraper.get('https://free-proxy-list.net')
    soup = BeautifulSoup(r.text, 'lxml')
    line = soup.find('table', class_='table table-striped table-bordered').find('tbody').find_all('tr')

    for tr in line:
    td = tr.find_all('td')
    ip = td[0].text
    port = td[1].text

    with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:
    f.write(str(ip + ":" + port + "\n"))
    except Exception as e:
    print(e)


    def main3():
    try:
    print("Start 3 step || Site - free.proxy-sale.com")
    scraper = cfscrape.create_scraper()
    r = scraper.get('https://free.proxy-sale.com')
    soup = BeautifulSoup(r.text, 'lxml')
    line = soup.find('div', class_="main__table-wrap").find('table').find('tbody').find_all('tr')

    for i in line:
    td = i.find_all('td', class_="ip")
    for n in td:
    a = n.find("a").text.replace("Нажмите ⌘-С чтобы скопировать Скопировать в буфер", " ").strip()
    ip = a
    with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:
    f.write(str(ip + "\n"))
    except Exception as e:
    print(e)


    def main4():
    try:
    print("Start 4 step || Site - proxyscrape.com and openproxylist.xyz")
    scraper = cfscrape.create_scraper()
    response5 = scraper.get("https://openproxylist.xyz/http.txt")
    response6 = scraper.get("https://openproxylist.xyz/socks4.txt")
    response7 = scraper.get("https://openproxylist.xyz/socks5.txt")

    proxies5 = response5.text.strip()
    proxies6 = response6.text.strip()
    proxies7 = response7.text.strip()
    with open("proxy_scraped.txt", "a") as txt_file:
    txt_file.write(proxies5+"\n"+proxies6+"\n"+proxies7+"\n")
    except Exception as e:
    print(e)


    def main5():
    try:
    print("Start 5 step || Site - hidemy.name")
    scraper = cfscrape.create_scraper()
    r = scraper.get('https://hidemy.name/ru/proxy-list/')
    soup = BeautifulSoup(r.text, 'lxml')
    line = soup.find('div', class_="table_block").find('table').find('tbody').find_all('tr')

    for a in line:
    td = a.find_all('td')
    ip = td[0].text
    port = td[1].text

    with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:
    f.write(str(ip + ":" + port + "\n"))
    except Exception as e:
    print(e)

    kol_st = 0

    def main7():
    try:
    print("Start 7 step || Site - sslproxies.org")
    scraper = cfscrape.create_scraper()

    r = scraper.get(f'https://www.sslproxies.org/#list')
    soup = BeautifulSoup(r.text, 'lxml')
    line = soup.find('table', class_="table table-striped table-bordered").find('tbody').find_all('tr')

    for a in line:
    td = a.find_all('td')
    ip = td[0].text
    port = td[1].text

    with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:
    f.write(str(ip + ":" + port + "\n"))
    except Exception as e:
    print(e)

    def main8():
    try:
    print("Start 8 step || Site - spys.one")
    scraper = cfscrape.create_scraper()

    r = scraper.get(f'https://spys.one')
    soup = BeautifulSoup(r.text, 'lxml')
    line = soup.find('table', cellspacing="0", cellpadding="2").find('table', cellspacing="1", cellpadding="1", align="left").find_all('tr', class_="spy1x", onmouseover="this.style.background='#002424'")
    line2 = soup.find('table', cellspacing="0", cellpadding="2").find('table', cellspacing="1", cellpadding="1",align="left").find_all('tr', class_="spy1xx",onmouseover="this.style.background='#002424'")

    for tr in line:
    td = tr.find_all('td')
    ip = td[0].text

    with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:
    f.write(str(ip + '\n'))

    for tr2 in line2:
    td2 = tr2.find_all('td')
    ip2 = td2[0].text

    with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:
    f.write(str(ip2 + '\n'))
    except Exception as e:
    print(e)

    def main10():
    try:
    print("Start 10 step || Site - userel.com")
    scraper = cfscrape.create_scraper()

    r = scraper.get(f'https://userel.com/')
    soup = BeautifulSoup(r.text, 'lxml')
    line = soup.find('div', class_="proxy").find('table').find_all('tr')

    for tr in line:
    td = tr.find_all('td')
    ip = td[0].text

    with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:
    f.write(str(ip) + '\n')
    except Exception as e:
    print(e)

    def main11():
    try:
    print("Start 11 step || Site - ArchiveProxy")
    scraper = cfscrape.create_scraper()
    ear, month, day = str(date.today()).split('-')
    ear = int(ear)
    month = int(month)
    day = int(day)

    for today in range(day):
    try:
    scoc = scraper.get(f'https://checkerproxy.net/api/archive/{ear}-{month}-{today}').json()
    except:
    break
    try:
    for i in range(40000):
    with open('proxy_scraped.txt', 'a+') as file:
    file.write(scoc[i]['addr'] + '\n')
    except:
    pass
    except Exception as e:
    print(e)

    if __name__ == "__main__":
    main2()
    main3()
    main4()
    main5()
    main7()
    main8()
    main10()
    main11()

    print("Duplicates cleaning...")
    with open("proxy_scraped.txt") as input_:
    result = dict.fromkeys(input_).keys()

    with open("proxy_scraped.txt", "w") as output:
    print(*result, file=output, sep="")
    print("Duplicates successfully cleared!")


    После того как вы вставили код, запустите скрипт. Вам нужно подождать некоторое время, пока он спарсит ****** с открытых источников, после чего удалит дубликаты.

    Теперь, когда у нас есть файл proxy_scraped.txt, создайте второй файл .py, в который вставьте следующий код. Он отвечает за проверку ****** на функциональность, а также разделяет их по протоколам (socks, http) и сортирует по странам.

    Python
    import threading
    import requests
    import os

    filename = input("FILENAME: ")
    timeout = int(input("TIMEOUT: "))

    x = 0
    y = 0

    def check_proxy(proxy):
    global y
    protocols = ['http', 'https', 'socks4', 'socks5']
    for protocol in protocols:
    try:
    proxies = {protocol: f'{protocol}://{proxy}', 'https': f'{protocol}://{proxy}'}
    response = requests.get('http://ip-api.com/json', proxies=proxies, timeout=timeout)
    if response.status_code == 200:
    data = response.json()
    country = data['country']
    folder_path = os.path.join('country', country)
    file_path = os.path.join(folder_path, f'{protocol}.txt')
    file_path2 = os.path.join(folder_path, 'ALL.txt')
    file_path3 = os.path.join("ALL", "ALL.txt")
    file_path4 = os.path.join("ALL", protocol)

    os.makedirs(folder_path, exist_ok=True)
    os.makedirs("ALL", exist_ok=True)

    with open(file_path, 'a') as f: #country
    f.write(f'{proxy}\n')
    with open(file_path2, 'a') as f: #country all
    f.write(f'{proxy}\n')

    with open(f"{file_path4}.txt", 'a') as f:
    f.write(f'{proxy}\n')
    with open(file_path3, 'a') as f:
    f.write(f'{proxy}\n')

    y += 1
    except:
    pass

    with open(filename, 'r') as f:
    proxy_list = [line.strip() for line in f]

    for i in proxy_list:
    t = threading.Thread(target=check_proxy, args=(i,)).start()
    x += 1
    print(f"\r\rVerified: {x}/{len(proxy_list)} Good: {y}", end='')


    Мы запускаем скрипт, и после того как программа проверит свою работу, она отсортирует работающие ****** по странам.

    Вы также можете использовать этот чекер для проверки своих ******. ****** будут разделены по протоколам, а также в папке со скриптом будет создана папка «ALL», в которой будут находиться все ****** без разделения по странам и без разделения по протоколам.

    После - используем ****** для своих нужд. С вами был Бенедикт Шмаль, спасибо что прочли статью до конца. Желаю вам хорошей ночи и успешного ворка.
     
    This article was useful for you?
    You can thank the author of the topic by transferring funds to your balance
    Thank the author
  2. Димагвоздь
    Димагвоздь Mar 21, 2025 ты меня запомнишь сученька 1089 Jan 9, 2025
    ахуенно мужик
     
  3. Нинтендо
    Нинтендо Mar 21, 2025 I was tryna beat a case 5836 Sep 12, 2021
    ахуеная статья :dynyl:
     
  4. Svoj
    Svoj Mar 21, 2025 13,903 Mar 12, 2018
    В целом неплохо. Вопросы только к качеству таких проксей. Но это, как говорится, другая история.
     
    1. Wersity
      Svoj, главное что бесплатно :Rotvgovne:
    2. BenediktShmal Topic starter
      Svoj, по сути да, но на халяву под какие то свои легонькие цели - почему бы и нет
  5. HAMNER
    HAMNER Mar 24, 2025 Banned 0 Apr 17, 2024
  6. Несков
    Несков Mar 24, 2025 Экономь TRX - lolz.live/threads/7681011 414 Feb 26, 2023
Loading...
Top