Загрузка...

Бесплатные аккаунты с Telegraph и их монетизация

Тема в разделе Статьи создана пользователем Архистратиг 13 окт 2024. (поднята 14 дек 2024) 2355 просмотров

  1. Архистратиг
    Архистратиг Автор темы 13 окт 2024 Коплю на хорошее настроение (0/100₽) 16 773 26 июл 2020
    Нередко telegraph используют селлеры на Funpay/playerok для передачи данных аккаунтов.
    С помощью ChatGPT переписал скрипт, который парсит страницы и сохраняет найденные логины/пароли/почты

    (Еще раз, код писал чатгпт, сильно не критикуем код)

    Получаем аккаунты

    1. Скачиваем софт по ссылке ниже или вручную
    https://mega.nz/file/cJQS3KQD#p76jkmAESxum8uZkGzo2UQB8yKkAp2dXhSMmcfdwrB8

    либы:

    aiohttp
    aiofiles
    beautifulsoup4
    fake-useragent​



    Python
    [/CENTER]
    import asyncio
    import aiohttp
    import aiofiles
    from os import system, path, mkdir, getcwd
    from bs4 import BeautifulSoup
    from datetime import datetime, timedelta
    from fake_useragent import UserAgent

    class cs:
    INFO = '\033[93m'
    GREEN = '\033[92m'
    RED = '\033[91m'
    END = '\033[0m'

    User_Agent = f'{UserAgent().random}'

    _ = system("cls")
    name = input(f"{cs.INFO}Name (можно с пробелами): ").replace(" ", "-") # Заменяем пробелы на дефисы
    offset = input("Offset: ")
    now = datetime.now()

    # Список ключевых слов для проверки
    KEYWORDS = [
    "логин", "login", "пароль", "password",
    "данные", "данные от аккаунта", "аккаунт",
    "аккаунта", "Steam", "Epic Games", "отзыв", "покупку", "покупка", "подтвердите", "заказ"
    ]

    # Ограничение на количество одновременных запросов
    CONCURRENT_REQUESTS = 10

    async def parse(session, semaphore, name, day, month, offset):
    headers = {
    'User-Agent': User_Agent
    }
    url = f"https://telegra.ph/{name}-{month}-{day}{offset}"

    async with semaphore:
    try:
    async with session.get(url, headers=headers) as response:
    if response.status == 404:
    print(f"{cs.RED}ERROR | 404 Page Not Found | {day}.{month}{offset}{cs.END}")
    return

    content = await response.text()
    except Exception as e:
    print(f"{cs.RED}ERROR | Failed to fetch {url} | {e}{cs.END}")
    return

    soup = BeautifulSoup(content, 'html.parser')

    # Извлечение текстового контента
    text_content = soup.get_text().strip()

    # Проверка на наличие текста и ключевых слов
    if text_content and any(keyword in text_content.lower() for keyword in KEYWORDS):
    # Создание директории для сохранения текста
    base_dir = f"{getcwd()}/media/{name}"
    if not path.isdir(base_dir):
    mkdir(base_dir)

    file_name = f"{base_dir}/{month}_{day}_{offset[1:] if offset else ''}.txt"
    try:
    async with aiofiles.open(file_name, "w", encoding="utf-8") as file:
    # Сохранение URL в файле
    await file.write(f"URL: {url}\n\n") # Сохраняем URL в начале файла
    await file.write(text_content)
    print(f"{cs.GREEN}SAVE | Text saved | {day}.{month}{offset}{cs.END}")
    except Exception as e:
    print(f"{cs.RED}ERROR | Failed to save {file_name} | {e}{cs.END}")
    else:
    print(f"{cs.RED}SKIP | No keywords found in text | {day}.{month}{offset}{cs.END}")

    async def main_async():
    semaphore = asyncio.Semaphore(CONCURRENT_REQUESTS)
    tasks = []

    async with aiohttp.ClientSession() as session:
    current_date = now

    while True:
    _month = f"{current_date.month:02}"
    _day = f"{current_date.day:02}"

    for _offset in range(1, int(offset) + 1):
    if _offset == 1:
    off = ""
    else:
    off = f"-{_offset}"
    task = asyncio.create_task(parse(session, semaphore, name, _day, _month, off))
    tasks.append(task)

    # Переход к предыдущему дню
    current_date -= timedelta(days=1)

    # Проверка для завершения по желаемому пределу (например, год назад)
    if current_date < now - timedelta(days=365):
    break

    # Ожидание завершения всех задач
    await asyncio.gather(*tasks)

    if __name__ == "__main__":
    asyncio.run(main_async())

    [CENTER]
    2. В папке со скриптом создаем папку media

    [IMG]

    2. Указываем название игры на английском (нужный запрос)

    [IMG]

    3. Указываем глубину поиска от 1 до 5.

    [IMG]

    4. Ждем.

    [IMG]

    5. Получаем аккаунты.

    [IMG]

    Умные могут изменить ключевые слова в коде и парсить что-то свое


    Монетизируем аккаунты

    1. Собираем аккаунты

    2. Создаем кучу объявлений на Playerok/Funpay

    [IMG]

    3. Можете ставить цены и по 5-50 рублей - аккаунты купят. Это сильный профит, учитывая, что мы берем аккаунты на халяву.​

     
    Этот материал оказался полезным?
    Вы можете отблагодарить автора темы путем перевода средств на баланс
    Отблагодарить автора
    13 окт 2024 Изменено
    1. Посмотреть предыдущие комментарии (1)
    2. Архистратиг Автор темы
      cuteceo, бля, создай папку media в папке со скриптом
  2. Архистратиг
    Архистратиг Автор темы 20 окт 2024 Коплю на хорошее настроение (0/100₽) 16 773 26 июл 2020
    Обновил код:

    - Исправлена ошибка, теперь ищутся все запросы
    - Доработан код, работает в разы быстрее, благодаря Yowori
    - Сохраняется URL в том же .txt файле, для случая если данные на скриншотах и т.д

    Если раньше скрипт не находил нужные Вам игры, попробуйте снова, теперь всё получится
     
    20 окт 2024 Изменено
  3. good_players
    good_players 13 окт 2024 https://lolz.live/threads/8634402/ - Лучшие телеграмм аккаунты 12 546 21 июл 2022
    [IMG]А ведь у парсера теперь проблемы с психикой из-за этого аккаунта
     
    13 окт 2024 Изменено
    1. Архистратиг Автор темы
      good_players, парсер что только не видел, это самый лайт
  4. FunPaySHOPS
    FunPaySHOPS 13 окт 2024 10 27 окт 2021
    я так палагаю это только для авто выдачи . но сылка ведь одна(после покупки ака) ее нужно самому менять, так что хз :hmm:
     
  5. форум
    Спасибо, надо попробовать, буду персить хентай игры и раздавать людям аккаунты с ними :pepejew:
     
  6. проебали
    Скрипт реально годный, можно парсить школьниц
     
    1. Посмотреть предыдущие комментарии (3)
    2. СТЕФФАНИ
    3. Архистратиг Автор темы
    4. форум
  7. СТЕФФАНИ
    СТЕФФАНИ 13 окт 2024 :fap: https://t.me/SteffShopBot Магазин VK аккаунтов :fap: 9893 12 фев 2019
    Что значит глубина поиска?
     
    1. Архистратиг Автор темы
      СТЕФФАНИ, если находит рабочую ссылку, то проверяет дальше эту же дату
      [IMG]
  8. K4V0
    K4V0 13 окт 2024 gbpltw // 14 484 22 янв 2017
    парсер prnt.sc лучше :wotchewing:
     
    1. Архистратиг Автор темы
      K4V0, ну спорный момент, там только картинки
    2. K4V0
  9. CROWNED_inactive5529643
    [IMG]писало что Text Saved а папка пустая
     
    1. Архистратиг Автор темы
  10. fallrain
    fallrain 13 окт 2024 1 25 мар 2024
    скрипт неплох но аккаунты нужно выискивать среди куч мусора в виде ссылок на читы
     
  11. culse
    Случайно нашёл гайд по перепродаже через lolz + Фанпей, спасибо
     
    13 окт 2024 Изменено
  12. Yowori
    Yowori 14 окт 2024 Эльфографика грядёт ~ https://lolz.live/threads/7861550/ 15 708 3 июн 2019
    Архистратиг вот код с асинхронностью, работает в разы быстрее

    Python
    import asyncio
    import aiohttp
    import aiofiles
    from os import system, path, mkdir, getcwd
    from bs4 import BeautifulSoup
    from datetime import datetime, timedelta
    from fake_useragent import UserAgent

    class cs:
    INFO = '\033[93m'
    GREEN = '\033[92m'
    RED = '\033[91m'
    END = '\033[0m'

    User_Agent = f'{UserAgent().random}'

    _ = system("cls")
    name = input(f"{cs.INFO}Name: ")
    offset = input("Offset: ")
    now = datetime.now()

    # Список ключевых слов для проверки
    KEYWORDS = [
    "логин", "login", "пароль", "password",
    "данные", "данные от аккаунта", "аккаунт",
    "аккаунта", "Steam", "Epic Games"
    ]

    # Ограничение на количество одновременных запросов
    CONCURRENT_REQUESTS = 10

    async def parse(session, semaphore, name, day, month, offset):
    headers = {
    'User-Agent': User_Agent
    }
    url = f"https://telegra.ph/{name}-{month}-{day}{offset}"

    async with semaphore:
    try:
    async with session.get(url, headers=headers) as response:
    if response.status == 404:
    print(f"{cs.RED}ERROR | 404 Page Not Found | {day}.{month}{offset}{cs.END}")
    return

    content = await response.text()
    except Exception as e:
    print(f"{cs.RED}ERROR | Failed to fetch {url} | {e}{cs.END}")
    return

    soup = BeautifulSoup(content, 'html.parser')

    # Извлечение текстового контента
    text_content = soup.get_text().strip()

    # Проверка на наличие текста и ключевых слов
    if text_content and any(keyword in text_content.lower() for keyword in KEYWORDS):
    # Создание директории для сохранения текста
    base_dir = f"{getcwd()}/media/{name}"
    if not path.isdir(base_dir):
    mkdir(base_dir)

    file_name = f"{base_dir}/{month}_{day}_{offset[1:] if offset else ''}.txt"
    try:
    async with aiofiles.open(file_name, "w", encoding="utf-8") as file:
    await file.write(text_content)
    print(f"{cs.GREEN}SAVE | Text saved | {day}.{month}{offset}{cs.END}")
    except Exception as e:
    print(f"{cs.RED}ERROR | Failed to save {file_name} | {e}{cs.END}")
    else:
    print(f"{cs.RED}SKIP | No keywords found in text | {day}.{month}{offset}{cs.END}")

    async def main_async():
    semaphore = asyncio.Semaphore(CONCURRENT_REQUESTS)
    tasks = []

    async with aiohttp.ClientSession() as session:
    current_date = now

    while True:
    _month = f"{current_date.month:02}"
    _day = f"{current_date.day:02}"

    for _offset in range(1, int(offset) + 1):
    if _offset == 1:
    off = ""
    else:
    off = f"-{_offset}"
    task = asyncio.create_task(parse(session, semaphore, name, _day, _month, off))
    tasks.append(task)

    # Переход к предыдущему дню
    current_date -= timedelta(days=1)

    # Проверка для завершения по желаемому пределу (например, год назад)
    if current_date < now - timedelta(days=365):
    break

    # Ожидание завершения всех задач
    await asyncio.gather(*tasks)

    if __name__ == "__main__":
    asyncio.run(main_async())
     
  13. Gr1ff1th
    Gr1ff1th 13 ноя 2024 6 24 июн 2024
    [IMG]Жоска однако
     
  14. Aisan
    Aisan 13 ноя 2024 Ничего не продаю и не создаю. Не пишите мне 15 853 26 авг 2020
    Хороший скрипт, главное оригинальный :ok_lol:
     
    1. Aisan
      Кстати Фанпей банит за перепродажу оффлайн аккаунтов, стоит упомянуть об этом в статье
    2. Архистратиг Автор темы
      Aisan, ну да оригинальный
    3. Архистратиг Автор темы
      Aisan, чатгпт писал переделывал
Top
Загрузка...