primer.py import requests from lxml import html from fake_useragent import UserAgent ua = UserAgent() nick = 'navalny' headers = { 'user-agent': ua.random } page = requests.get('https://twitter.com/navalny', headers=headers) tree = html.fromstring(page.content) not_found = tree.xpath('/html/body/div/div[3]/div[1]/table[1]/tbody/tr[1]/td[2]/div[2]/span[2]/text()') #Нужно спиздить никнейм у Нава**ного (хуй знает можно писать такое или нет) convert = (str(not_found)).lower() print (convert) f = open('hts.html', 'w', encoding='utf-8') f.write(page.text) Code import requests from lxml import html from fake_useragent import UserAgent ua = UserAgent() nick = 'navalny' headers = { 'user-agent': ua.random } page = requests.get('https://twitter.com/navalny', headers=headers) tree = html.fromstring(page.content) not_found = tree.xpath('/html/body/div/div[3]/div[1]/table[1]/tbody/tr[1]/td[2]/div[2]/span[2]/text()') #Нужно спиздить никнейм у Нава**ного (хуй знает можно писать такое или нет) convert = (str(not_found)).lower() print (convert) f = open('hts.html', 'w', encoding='utf-8') f.write(page.text) Возвращает пустой текст. Тобишь [] При открытии файла .html данный тег присутствует. Путь xpath правильный. Пробовал так же и через: primer_bs4.py page = requests.get ('http://twitter.com/navalny') soup = BeautifulSoup(page.content, 'html.parser') convert = soup.find('span', {'class': 'screen-name'}) Code page = requests.get ('http://twitter.com/navalny') soup = BeautifulSoup(page.content, 'html.parser') convert = soup.find('span', {'class': 'screen-name'}) Результат идентичный