С Новым годом! Форум программистов, компьютерный форум, киберфорум
Python для начинающих
Войти
Регистрация
Восстановить пароль
Блоги Сообщество Поиск Заказать работу  
 
Рейтинг 4.91/11: Рейтинг темы: голосов - 11, средняя оценка - 4.91
0 / 0 / 0
Регистрация: 01.10.2018
Сообщений: 8

Парсинг с Python

22.05.2019, 11:29. Показов 2220. Ответов 4
Метки нет (Все метки)

Студворк — интернет-сервис помощи студентам
Подскажите пожалуйста - что делать если классы\id одинаковые во многих блоках, но данные содержащиеся в них разные.
Надо из каждого достать информацию. Тег main и надо чтобы он парсил каждый тэг с одинаковым название
Python
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
import requests, bs4
 
pogoda=requests.get('https://sinoptik.com.ru/%D0%BF%D0%BE%D0%B3%D0%BE%D0%B4%D0%B0-%D0%BC%D0%BE%D1%81%D0%BA%D0%B2%D0%B0')#получение кода web-странцы в html
b=bs4.BeautifulSoup(pogoda.text, "html.parser")#преобразование кода в объект дял парсинг
# select возвращает список всех найденных тегов с заданным селектором
 
p5=b.select('.main .date')
pog_3=p5[0].getText()
 
p6=b.select('.main .month')
pog_4=p6[0].getText()
 
p7=b.select('.main .temperature .min')
pog_1=p7[0].getText()
 
p8=b.select('.main .temperature .max')
pog_2=p8[0].getText()
 
 
print('Дата: '+ pog_3 +' ' + pog_4)
print('Температура: '+ pog_1 + ' ' + pog_2)
0
Programming
Эксперт
39485 / 9562 / 3019
Регистрация: 12.04.2006
Сообщений: 41,671
Блог
22.05.2019, 11:29
Ответы с готовыми решениями:

Парсинг на Python (со скриптами JS)
Всем привет! Дали задание спарсить услуги с сайта. Нашел интересную библиотеку BeatifulSoup. Вроде бы все хорошо, все работает как надо....

Парсинг habr в Python
Снова не получается :( Задача - Надо парсить страницу со свежими новостям на https://habr.com/ru/all/ Вам необходимо собирать...

Python парсинг JSON
Парсю файлик networks = json.load(open("json/networks.json")) for item in networks: run_network(item, item, item, appinfo)...

4
 Аватар для m0nte-cr1st0
1043 / 578 / 242
Регистрация: 15.01.2019
Сообщений: 2,178
Записей в блоге: 1
22.05.2019, 11:40
Sheav12, вытаскиваешь список этих тегов, затем в цикле для каждого получаешь текст. По-моему, в bs findAll за это отвечает (точно не скажу, смотри доки).
0
 Аватар для Vigi
641 / 481 / 179
Регистрация: 28.05.2012
Сообщений: 1,419
22.05.2019, 12:03
Цитата Сообщение от Sheav12 Посмотреть сообщение
id одинаковые во многих блоках
Что то новое id всегда было уникальным...
0
Эксперт Python
1356 / 653 / 207
Регистрация: 23.03.2014
Сообщений: 3,057
22.05.2019, 12:19
Пример парсера
Python
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
from builtins import print
import requests
import pygame
import os
import sys
import binascii
from pygame.locals import *
import shutil
import bs4
from bs4 import BeautifulSoup
from urllib.request import urlopen
import time
from smtplib import SMTP_SSL
from email.mime.multipart import MIMEMultipart
from email.mime.base import MIMEBase
from email import  encoders
import lxml.html
import sqlite3
import urllib
url='http://htmlbook.ru/samhtml5/ustarevshie-tegi-i-atributy/'
def get_html(url):
    f = myhtml = urlopen(url)
    sp = BeautifulSoup(myhtml, "html.parser")
    lnk=sp.find_all("span",class_="tag")
    for l in lnk:
        l=str(l)
        l=l.replace('"',' ')
        l=l.replace("<span class= tag >",'')
        l=l.replace('</span>',' ')
        l=l.replace('&gt','')
        l=l.replace('&lt','')
        l=l.replace(';',' ')
        print(l)
 
if __name__ == '__main__':
    get_html(url)
from builtins import print
import requests
import pygame
import os
import sys
import binascii
from pygame.locals import *
import shutil
import bs4
from bs4 import BeautifulSoup
from urllib.request import urlopen
import time
from smtplib import SMTP_SSL
from email.mime.multipart import MIMEMultipart
from email.mime.base import MIMEBase
from email import  encoders
import lxml.html
import sqlite3
import urllib
url='http://htmlbook.ru/samhtml5/ustarevshie-tegi-i-atributy/'
def get_html(url):
    f = myhtml = urlopen(url)
    sp = BeautifulSoup(myhtml, "html.parser")
    lnk=sp.find_all("span",class_="tag")
    for l in lnk:
        l=str(l)
        l=l.replace('"',' ')
        l=l.replace("<span class= tag >",'')
        l=l.replace('</span>',' ')
        l=l.replace('&gt','')
        l=l.replace('&lt','')
        l=l.replace(';',' ')
        print(l)
 
if __name__ == '__main__':
    get_html(url)
0
 Аватар для Vigi
641 / 481 / 179
Регистрация: 28.05.2012
Сообщений: 1,419
22.05.2019, 12:37
Python
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
import requests
import requests
from bs4 import BeautifulSoup as bs
 
weather = requests.get('https://sinoptik.com.ru/%D0%BF%D0%BE%D0%B3%D0%BE%D0%B4%D0%B0-'
                       '%D0%BC%D0%BE%D1%81%D0%BA%D0%B2%D0%B0').content  # получение кода web-странцы в html
soup = bs(weather, "html.parser")
response = soup.find('div', {'class': 'tabs'}).find_all('div', {'class': 'main'})
 
for r in response:
    w_date = r.select(".date")[0].getText()
    w_month = r.select(".month")[0].getText()
    w_temp = f'Температура: {r.select(".min")[0].getText()}  {r.select(".max")[0].getText()}'
    print(f'Дата: {w_date} {w_month}')
    print(w_temp)
    print('-' * len(w_temp))
0
Надоела реклама? Зарегистрируйтесь и она исчезнет полностью.
inter-admin
Эксперт
29715 / 6470 / 2152
Регистрация: 06.03.2009
Сообщений: 28,500
Блог
22.05.2019, 12:37
Помогаю со студенческими работами здесь

Python 3 парсинг таблицы
получил хтмл страницы: import urllib.request fp =...

Python 2.7 парсинг JSON
В ответ на зарпрос получаю джейсон примерно такой структуры {u'count': 9306, u'offers': , u'tracking_link': u'http://crystal ...

Python парсинг
Привет. Скажите, пожалуйста.. Когда начинаю прогонять по циклу, всегда выводит одну и ту же информацию. В чем проблема?

Парсинг на Python
Дополнить парсер возможность вывода ссылок со всех url, которые попадаются на странице https://docs.python.org/3/library/index.html ...

Парсинг Python
Задача запарсирсить странички обявление страницу в https://krisha.kz/prodazha/kvartiry/ Надо запарсить цену и ссылку. не смог запарсить их ...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
5
Ответ Создать тему
Новые блоги и статьи
Изучаю kubernetes
lagorue 13.01.2026
А пригодятся-ли мне знания kubernetes в России?
Сукцессия микоризы: основная теория в виде двух уравнений.
anaschu 11.01.2026
https:/ / rutube. ru/ video/ 7a537f578d808e67a3c6fd818a44a5c4/
WordPad для Windows 11
Jel 10.01.2026
WordPad для Windows 11 — это приложение, которое восстанавливает классический текстовый редактор WordPad в операционной системе Windows 11. После того как Microsoft исключила WordPad из. . .
Classic Notepad for Windows 11
Jel 10.01.2026
Old Classic Notepad for Windows 11 Приложение для Windows 11, позволяющее пользователям вернуть классическую версию текстового редактора «Блокнот» из Windows 10. Программа предоставляет более. . .
Почему дизайн решает?
Neotwalker 09.01.2026
В современном мире, где конкуренция за внимание потребителя достигла пика, дизайн становится мощным инструментом для успеха бренда. Это не просто красивый внешний вид продукта или сайта — это. . .
Модель микоризы: классовый агентный подход 3
anaschu 06.01.2026
aa0a7f55b50dd51c5ec569d2d10c54f6/ O1rJuneU_ls https:/ / vkvideo. ru/ video-115721503_456239114
Owen Logic: О недопустимости использования связки «аналоговый ПИД» + RegKZR
ФедосеевПавел 06.01.2026
Owen Logic: О недопустимости использования связки «аналоговый ПИД» + RegKZR ВВЕДЕНИЕ Введу сокращения: аналоговый ПИД — ПИД регулятор с управляющим выходом в виде числа в диапазоне от 0% до. . .
Модель микоризы: классовый агентный подход 2
anaschu 06.01.2026
репозиторий https:/ / github. com/ shumilovas/ fungi ветка по-частям. коммит Create переделка под биомассу. txt вход sc, но sm считается внутри мицелия. кстати, обьем тоже должен там считаться. . . .
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin
Copyright ©2000 - 2026, CyberForum.ru