Загрузка...

Free accounts with Telegraph and their monetization

Thread in Articles created by Архистратиг Oct 13, 2024. (bumped Dec 14, 2024) 2352 views

  1. Архистратиг
    Архистратиг Topic starter Oct 13, 2024 Коплю на хорошее настроение (0/100₽) 16,769 Jul 26, 2020
    Нередко telegraph используют селлеры на Funpay/playerok для передачи данных аккаунтов.
    С помощью ChatGPT переписал скрипт, который парсит страницы и сохраняет найденные логины/пароли/почты

    (Еще раз, код писал чатгпт, сильно не критикуем код)

    Получаем аккаунты

    1. Скачиваем софт по ссылке ниже или вручную
    https://mega.nz/file/cJQS3KQD#p76jkmAESxum8uZkGzo2UQB8yKkAp2dXhSMmcfdwrB8

    либы:

    aiohttp
    aiofiles
    beautifulsoup4
    fake-useragent​



    Python
    [/CENTER]
    import asyncio
    import aiohttp
    import aiofiles
    from os import system, path, mkdir, getcwd
    from bs4 import BeautifulSoup
    from datetime import datetime, timedelta
    from fake_useragent import UserAgent

    class cs:
    INFO = '\033[93m'
    GREEN = '\033[92m'
    RED = '\033[91m'
    END = '\033[0m'

    User_Agent = f'{UserAgent().random}'

    _ = system("cls")
    name = input(f"{cs.INFO}Name (можно с пробелами): ").replace(" ", "-") # Заменяем пробелы на дефисы
    offset = input("Offset: ")
    now = datetime.now()

    # Список ключевых слов для проверки
    KEYWORDS = [
    "логин", "login", "пароль", "password",
    "данные", "данные от аккаунта", "аккаунт",
    "аккаунта", "Steam", "Epic Games", "отзыв", "покупку", "покупка", "подтвердите", "заказ"
    ]

    # Ограничение на количество одновременных запросов
    CONCURRENT_REQUESTS = 10

    async def parse(session, semaphore, name, day, month, offset):
    headers = {
    'User-Agent': User_Agent
    }
    url = f"https://telegra.ph/{name}-{month}-{day}{offset}"

    async with semaphore:
    try:
    async with session.get(url, headers=headers) as response:
    if response.status == 404:
    print(f"{cs.RED}ERROR | 404 Page Not Found | {day}.{month}{offset}{cs.END}")
    return

    content = await response.text()
    except Exception as e:
    print(f"{cs.RED}ERROR | Failed to fetch {url} | {e}{cs.END}")
    return

    soup = BeautifulSoup(content, 'html.parser')

    # Извлечение текстового контента
    text_content = soup.get_text().strip()

    # Проверка на наличие текста и ключевых слов
    if text_content and any(keyword in text_content.lower() for keyword in KEYWORDS):
    # Создание директории для сохранения текста
    base_dir = f"{getcwd()}/media/{name}"
    if not path.isdir(base_dir):
    mkdir(base_dir)

    file_name = f"{base_dir}/{month}_{day}_{offset[1:] if offset else ''}.txt"
    try:
    async with aiofiles.open(file_name, "w", encoding="utf-8") as file:
    # Сохранение URL в файле
    await file.write(f"URL: {url}\n\n") # Сохраняем URL в начале файла
    await file.write(text_content)
    print(f"{cs.GREEN}SAVE | Text saved | {day}.{month}{offset}{cs.END}")
    except Exception as e:
    print(f"{cs.RED}ERROR | Failed to save {file_name} | {e}{cs.END}")
    else:
    print(f"{cs.RED}SKIP | No keywords found in text | {day}.{month}{offset}{cs.END}")

    async def main_async():
    semaphore = asyncio.Semaphore(CONCURRENT_REQUESTS)
    tasks = []

    async with aiohttp.ClientSession() as session:
    current_date = now

    while True:
    _month = f"{current_date.month:02}"
    _day = f"{current_date.day:02}"

    for _offset in range(1, int(offset) + 1):
    if _offset == 1:
    off = ""
    else:
    off = f"-{_offset}"
    task = asyncio.create_task(parse(session, semaphore, name, _day, _month, off))
    tasks.append(task)

    # Переход к предыдущему дню
    current_date -= timedelta(days=1)

    # Проверка для завершения по желаемому пределу (например, год назад)
    if current_date < now - timedelta(days=365):
    break

    # Ожидание завершения всех задач
    await asyncio.gather(*tasks)

    if __name__ == "__main__":
    asyncio.run(main_async())

    [CENTER]
    2. В папке со скриптом создаем папку media

    [IMG]

    2. Указываем название игры на английском (нужный запрос)

    [IMG]

    3. Указываем глубину поиска от 1 до 5.

    [IMG]

    4. Ждем.

    [IMG]

    5. Получаем аккаунты.

    [IMG]

    Умные могут изменить ключевые слова в коде и парсить что-то свое


    Монетизируем аккаунты

    1. Собираем аккаунты

    2. Создаем кучу объявлений на Playerok/Funpay

    [IMG]

    3. Можете ставить цены и по 5-50 рублей - аккаунты купят. Это сильный профит, учитывая, что мы берем аккаунты на халяву.​

     
    This article was useful for you?
    You can thank the author of the topic by transferring funds to your balance
    Thank the author
    1. Архистратиг Topic starter
      cuteceo, бля, создай папку media в папке со скриптом
  2. Архистратиг
    Архистратиг Topic starter Oct 20, 2024 Коплю на хорошее настроение (0/100₽) 16,769 Jul 26, 2020
    Обновил код:

    - Исправлена ошибка, теперь ищутся все запросы
    - Доработан код, работает в разы быстрее, благодаря Yowori
    - Сохраняется URL в том же .txt файле, для случая если данные на скриншотах и т.д

    Если раньше скрипт не находил нужные Вам игры, попробуйте снова, теперь всё получится
     
  3. good_players
    good_players Oct 13, 2024 https://lolz.live/threads/8634402/ - Лучшие телеграмм аккаунты 12,546 Jul 21, 2022
    [IMG]А ведь у парсера теперь проблемы с психикой из-за этого аккаунта
     
    1. Архистратиг Topic starter
      good_players, парсер что только не видел, это самый лайт
  4. FunPaySHOPS
    FunPaySHOPS Oct 13, 2024 10 Oct 27, 2021
    я так палагаю это только для авто выдачи . но сылка ведь одна(после покупки ака) ее нужно самому менять, так что хз :hmm:
     
  5. форум
    Спасибо, надо попробовать, буду персить хентай игры и раздавать людям аккаунты с ними :pepejew:
     
  6. проебали
    Скрипт реально годный, можно парсить школьниц
     
    1. View previous comments (3)
    2. СТЕФФАНИ
    3. Архистратиг Topic starter
    4. форум
  7. СТЕФФАНИ
    СТЕФФАНИ Oct 13, 2024 :fap: https://t.me/SteffShopBot Магазин VK аккаунтов :fap: 9893 Feb 12, 2019
    Что значит глубина поиска?
     
    1. Архистратиг Topic starter
      СТЕФФАНИ, если находит рабочую ссылку, то проверяет дальше эту же дату
      [IMG]
  8. K4V0
    K4V0 Oct 13, 2024 gbpltw // 14,484 Jan 22, 2017
    парсер prnt.sc лучше :wotchewing:
     
    1. Архистратиг Topic starter
      K4V0, ну спорный момент, там только картинки
    2. K4V0
  9. CROWNED_inactive5529643
    [IMG]писало что Text Saved а папка пустая
     
    1. Архистратиг Topic starter
  10. fallrain
    fallrain Oct 13, 2024 1 Mar 25, 2024
    скрипт неплох но аккаунты нужно выискивать среди куч мусора в виде ссылок на читы
     
  11. culse
    Случайно нашёл гайд по перепродаже через lolz + Фанпей, спасибо
     
  12. Yowori
    Yowori Oct 14, 2024 Эльфографика грядёт ~ https://lolz.live/threads/7861550/ 15,708 Jun 3, 2019
    Архистратиг вот код с асинхронностью, работает в разы быстрее

    Python
    import asyncio
    import aiohttp
    import aiofiles
    from os import system, path, mkdir, getcwd
    from bs4 import BeautifulSoup
    from datetime import datetime, timedelta
    from fake_useragent import UserAgent

    class cs:
    INFO = '\033[93m'
    GREEN = '\033[92m'
    RED = '\033[91m'
    END = '\033[0m'

    User_Agent = f'{UserAgent().random}'

    _ = system("cls")
    name = input(f"{cs.INFO}Name: ")
    offset = input("Offset: ")
    now = datetime.now()

    # Список ключевых слов для проверки
    KEYWORDS = [
    "логин", "login", "пароль", "password",
    "данные", "данные от аккаунта", "аккаунт",
    "аккаунта", "Steam", "Epic Games"
    ]

    # Ограничение на количество одновременных запросов
    CONCURRENT_REQUESTS = 10

    async def parse(session, semaphore, name, day, month, offset):
    headers = {
    'User-Agent': User_Agent
    }
    url = f"https://telegra.ph/{name}-{month}-{day}{offset}"

    async with semaphore:
    try:
    async with session.get(url, headers=headers) as response:
    if response.status == 404:
    print(f"{cs.RED}ERROR | 404 Page Not Found | {day}.{month}{offset}{cs.END}")
    return

    content = await response.text()
    except Exception as e:
    print(f"{cs.RED}ERROR | Failed to fetch {url} | {e}{cs.END}")
    return

    soup = BeautifulSoup(content, 'html.parser')

    # Извлечение текстового контента
    text_content = soup.get_text().strip()

    # Проверка на наличие текста и ключевых слов
    if text_content and any(keyword in text_content.lower() for keyword in KEYWORDS):
    # Создание директории для сохранения текста
    base_dir = f"{getcwd()}/media/{name}"
    if not path.isdir(base_dir):
    mkdir(base_dir)

    file_name = f"{base_dir}/{month}_{day}_{offset[1:] if offset else ''}.txt"
    try:
    async with aiofiles.open(file_name, "w", encoding="utf-8") as file:
    await file.write(text_content)
    print(f"{cs.GREEN}SAVE | Text saved | {day}.{month}{offset}{cs.END}")
    except Exception as e:
    print(f"{cs.RED}ERROR | Failed to save {file_name} | {e}{cs.END}")
    else:
    print(f"{cs.RED}SKIP | No keywords found in text | {day}.{month}{offset}{cs.END}")

    async def main_async():
    semaphore = asyncio.Semaphore(CONCURRENT_REQUESTS)
    tasks = []

    async with aiohttp.ClientSession() as session:
    current_date = now

    while True:
    _month = f"{current_date.month:02}"
    _day = f"{current_date.day:02}"

    for _offset in range(1, int(offset) + 1):
    if _offset == 1:
    off = ""
    else:
    off = f"-{_offset}"
    task = asyncio.create_task(parse(session, semaphore, name, _day, _month, off))
    tasks.append(task)

    # Переход к предыдущему дню
    current_date -= timedelta(days=1)

    # Проверка для завершения по желаемому пределу (например, год назад)
    if current_date < now - timedelta(days=365):
    break

    # Ожидание завершения всех задач
    await asyncio.gather(*tasks)

    if __name__ == "__main__":
    asyncio.run(main_async())
     
  13. Gr1ff1th
    Gr1ff1th Nov 13, 2024 6 Jun 24, 2024
    [IMG]Жоска однако
     
  14. Aisan
    Aisan Nov 13, 2024 Ничего не продаю и не создаю. Не пишите мне 15,852 Aug 26, 2020
    Хороший скрипт, главное оригинальный :ok_lol:
     
    1. Aisan
      Кстати Фанпей банит за перепродажу оффлайн аккаунтов, стоит упомянуть об этом в статье
    2. Архистратиг Topic starter
      Aisan, ну да оригинальный
    3. Архистратиг Topic starter
      Aisan, чатгпт писал переделывал
Top
Loading...