python调用百度地图调用百度地图WEB服务服务API获取地点对应坐标值获取地点对应坐标值
主要为大家详细介绍了python调用百度地图WEB服务API获取地点对应坐标值,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
本篇博客介绍如何使用Python调用百度地图WEB服务API获取地点对应坐标值,现有一系列结构化地址数据(如:北京市海淀区上地十街十号),目的
是获取对应坐标值。
百度地图开发者平台路线规划使用说明网址
最终结果是写入了txt文件,所以需要在循环遇到错误的时候写入对应的可识别的值(看到这个值就知道这个结果是错误的,可以写对应数量的NA或者0
值),方便后续分析。
# -*- coding: utf-8 -*-
"""
Created on Fri Aug 15 10:06:16 2018
@author: zjp
Python3.6.6
"""
# 加载必要的包
import csv
import json
import time
import requests
from bs4 import BeautifulSoup
origin_path = 'E://GetRoute/HuaNan/中文地址.csv' # 原始数据文件路径
new_path = 'E://GetRoute/HuaNan/地址对应坐标.txt' # 爬取数据文件保存路径
url_geocode = r'http://api.map.baidu.com/geocoder/v2/?' # 百度地图api网址
AK = ['oFCSeioUzdN5NfzSlBBXqBEfXgp26mGM', 'Akqk5xjbSGzy1WC1IUF04K2CQWGtOFNv', 'HCdq1Ry35rwgVQwjAXqAEQGzWNY7pi1h',
'GtOZERwlG0PynPwFrBYaF9wWcAGxvaw8', 'iRKkZehZimIWdGoxfjlbtLrYb0VVgVaD', 'gG0KIBhAGpAVvaRUlwFjmOtsTKGRK2tf',
'CSsyosiklqyYUDNnBP0BR63fa9BzCHFf', 'mq4TZshHveVqML3icCC6AWnS25rbjYBz', 'rBYetA6WQNOlXtQWInz8ckRE0iCDsUjB',
'QUshHD8KUAk8y9gLwDhQ6RyOgQxEB8VD', '7Ict6oZmpAYYXMjha2Tk5g4ENTCYwx03'] # 开发者应用密钥
cod = r'&ret_coordtype=bd09ll' # 坐标类型(设置为百度坐标)
machine_data = csv.reader(open(origin_path, 'r', encoding='utf-8')) # 读取原始文件数据
n = 0
akn = 0
column_names = '设备序列号 取点方式1 准确度1 网点纬度 网点经度 网点名称 取点方式2 准确度2 安装地址纬度 安装地址经度 安装地址 取点 准确度 最佳纬度 最佳经度 安装方式 最佳地址'
with open(new_path, 'a', encoding='utf-8') as f: # 把变量名写入新文件
f.write(column_names)
f.write('')
f.close()
while True:
try:
for addr in machine_data: # 循环爬取每一条数据
province = str(addr[0]) # 省份
city = str(addr[1]) # 城市
mac = str(addr[2]) # 设备序列号
wd = str(addr[3]) # 网点名称
anz = str(addr[4]) # 安装地址
anz_type = str(addr[5]) # 安装类型
add1 = province + city + wd
add2 = province + city + anz
if akn < len(AK): # AK配额还没用完时
n += 1
aknd = AK[akn] # 第akn个秘钥是aknd
ak = r'&output=json&ak=' + aknd
address1 = r'address=' + add1
tar_url = url_geocode + address1 + ak + cod # 最终url网址
response = requests.get(url=tar_url) # 请求网址响应
soup = BeautifulSoup(response.content, 'html.parser') # 解析网页内容
response.close() # 获取内容后关闭网页(防止被远程主机认定为攻击行为)
dictinfo = json.loads(str(soup)) # json数据转dict数据
status = dictinfo['status']
print(status)
if status == 0: # status状态码为0表示服务器响应成功,本次循环爬取数据成功
lng1 = round(dictinfo['result']['location']['lng'], 8) # 经度保留8位数
lat1 = round(dictinfo['result']['location']['lat'], 8) # 纬度保留8位数
precise1 = dictinfo['result']['precise'] # 1为精准打点,可靠性高;0为模糊打点,准确性低
confidence1 = dictinfo['result']['confidence'] # 可信度,描述打点准确度,大于80表示误差小于100m
geocode1 = str(precise1) + ' ' + str(confidence1) + ' ' + str(lat1) + ' ' + str(lng1) + ' ' + add1
elif status == 302 or status == 210: # 302 配额超限,限制访问;210 IP验证未通过,则使用下一个Ak
akn += 1
lat1 = 'break'
lng1 = 'break'
precise1 = 0
confidence1 = 0
geocode1 = '0 0 break break ' + add1
else:
lat1 = 'na'
lng1 = 'na'
precise1 = 0
confidence1 = 0
geocode1 = '0 0 na na ' + add1
address2 = r'address=' + add2
tar_url2 = url_geocode + address2 + ak + cod # 总的url
response2 = requests.get(url=tar_url2) # 请求网址响应
soup2 = BeautifulSoup(response2.content, 'html.parser') # 解析内容
response2.close() # 获取内容后关闭网页(防止被远程主机认定为攻击行为)
dictinfo2 = json.loads(str(soup2)) # json转dict
status2 = dictinfo2['status']
print(status2)
if status2 == 0: