Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/315.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 使用BeautifulSoup删除Json表_Python_Json_Web Scraping_Beautifulsoup - Fatal编程技术网

Python 使用BeautifulSoup删除Json表

Python 使用BeautifulSoup删除Json表,python,json,web-scraping,beautifulsoup,Python,Json,Web Scraping,Beautifulsoup,如何从该网站获取数据?它似乎是一个json结构。有没有可能通过BeautifulSoup获得 网址: 您可以直接从数据构造dataframe。例如: 导入请求 作为pd进口熊猫 url=”https://www.ultimatetennisstatistics.com/statsLeadersTable?current=1&rowCount=-1&sort%5Bvalue%5D=desc&searchPhrase=&category=aces&seasure=&fromDate=&toDate=

如何从该网站获取数据?它似乎是一个json结构。有没有可能通过BeautifulSoup获得

网址:


您可以直接从数据构造dataframe。例如:

导入请求
作为pd进口熊猫
url=”https://www.ultimatetennisstatistics.com/statsLeadersTable?current=1&rowCount=-1&sort%5Bvalue%5D=desc&searchPhrase=&category=aces&seasure=&fromDate=&toDate=&level=&bestOf=&surface=&indior=&speed=&round=&result=&tournID=&countryId=&minEntries=&active=true&&u=16228844929848“
data=requests.get(url).json()
df=pd.json_规范化(数据[“行”])
打印(df)
df.to_csv(“data.csv”,index=False)
印刷品:

rank playerId name value country.name country.id country.code
0 1 3333 Ivo Karlovic 13687克罗地亚克罗尔
1 2 4544 John Isner 12806美国
2 3 3819罗杰·费德勒11371瑞士
353852 Feliciano Lopez 9920西班牙ESP es
4 8 5016 Sam Querrey 8466美国
595670 Milos Raonic 8130加拿大可以
6134728凯文·安德森7262南非
7 14 5220 Marin Cilic 7246克罗地亚克罗hr
8 17 4541 Jo Wilfried Tsonga 6634法国FRA fr
9 18 4789盖尔蒙菲尔6245法国联邦铁路公司
10204920诺瓦克·德约科维奇6069塞尔维亚SRB rs
11 21 4526 Stan Wawrinka 5900瑞士瑞士
...
并保存
data.csv
(来自LibreOffice的屏幕截图):


您不需要美丽的团队。它确实是JSON。您可以使用
r.json()
并将数据输入dict
import requests
from bs4 import BeautifulSoup
import pandas as pd

r = requests.get(url)
soup = BeautifulSoup(r.text, 'lxml')