导航:首页 > 好看推荐 > 用爬虫看电影

用爬虫看电影

发布时间:2022-07-24 14:09:31

㈠ Python爬虫,爬取豆瓣电影检测到ip异常请求,怎么办解决,现在爬取不了豆瓣电影了

ip估计被封了,换个ip

㈡ python爬虫抓取电影top20排名怎么写

初步接触python爬虫(其实python也是才起步),发现一段代码研究了一下,觉得还比较有用处,Mark下。
上代码:

#!/usr/bin/python#coding=utf-8#Author: Andrew_liu#mender:cy"""
一个简单的Python爬虫, 用于抓取豆瓣电影Top前100的电影的名称
Anthor: Andrew_liu
mender:cy
Version: 0.0.2
Date: 2017-03-02
Language: Python2.7.12
Editor: JetBrains PyCharm 4.5.4
"""import stringimport reimport urllib2import timeclass DouBanSpider(object) :
"""类的简要说明
主要用于抓取豆瓣Top100的电影名称

Attributes:
page: 用于表示当前所处的抓取页面
cur_url: 用于表示当前争取抓取页面的url
datas: 存储处理好的抓取到的电影名称
_top_num: 用于记录当前的top号码
"""

def __init__(self):
self.page = 1
self.cur_url = "h0?start={page}&filter=&type="
self.datas = []
self._top_num = 1
print u"豆瓣电影爬虫准备就绪, 准备爬取数据..."

def get_page(self, cur_page):
"""
根据当前页码爬取网页HTML
Args:
cur_page: 表示当前所抓取的网站页码
Returns:
返回抓取到整个页面的HTML(unicode编码)
Raises:
URLError:url引发的异常
"""
url = self.cur_url try:
my_page = urllib2.urlopen(url.format(page=(cur_page - 1) * 25)).read().decode("utf-8") except urllib2.URLError, e: if hasattr(e, "code"): print "The server couldn't fulfill the request."
print "Error code: %s" % e.code elif hasattr(e, "reason"): print "We failed to reach a server. Please check your url and read the Reason"
print "Reason: %s" % e.reason return my_page def find_title(self, my_page):
"""
通过返回的整个网页HTML, 正则匹配前100的电影名称

Args:
my_page: 传入页面的HTML文本用于正则匹配
"""
temp_data = []
movie_items = re.findall(r'<span.*?class="title">(.*?)</span>', my_page, re.S) for index, item in enumerate(movie_items): if item.find("&nbsp") == -1:
temp_data.append("Top" + str(self._top_num) + " " + item)
self._top_num += 1
self.datas.extend(temp_data) def start_spider(self):
"""
爬虫入口, 并控制爬虫抓取页面的范围
"""
while self.page <= 4:
my_page = self.get_page(self.page)
self.find_title(my_page)
self.page += 1def main():
print u"""
###############################
一个简单的豆瓣电影前100爬虫
Author: Andrew_liu
mender: cy
Version: 0.0.2
Date: 2017-03-02
###############################
"""
my_spider = DouBanSpider()
my_spider.start_spider()
fobj = open('/data/moxiaokai/HelloWorld/cyTest/blogcode/top_move.txt', 'w+') for item in my_spider.datas: print item
fobj.write(item.encode("utf-8")+' ')
time.sleep(0.1) print u"豆瓣爬虫爬取完成"if __name__ == '__main__':
main()

运行结果:

㈢ python scrapy爬虫豆瓣的“加载更多” 应该怎么爬到所有的电影

不说具体,说思路。
你要分析 当你点击 加载更多 时,浏览器都做了什么(他是怎么取回 "更多数据"的)
然后在scrapy中模拟这一过程!

㈣ 有个会用python爬虫搜电影的男票是一种什么体验

哪个方便用哪个,python连接数据库都有对应的包的,如果你嫌麻烦,可以用自带的sqlite3包。

㈤ python能爬电影吗

可以爬电影的。你想看什么电影?我能找到

㈥ 爬虫电影院信息违法吗

违法。非法获取计算机系统数据罪
根据《中华人民共和国刑法》第二百八十五条规定,非法获取计算机信息系统数据、非法控制计算机信息系统罪,是指违反国家规定,侵入国家事务、国防建设、尖端科学技术领域以外的计算机信息系统或者采用其他技术手段,获取该计算机信息系统中存储、处理或者传输的数据,情节严重的行为。刑法第285条第2款明确规定,犯本罪的,处三年以下有期徒刑或者拘役,并处或者单处罚金;情节特别严重的,处三年以上七年以下有期徒刑,并处罚金。
侵犯商业秘密罪
《反不正当竞争法》第九条,以不正当手段获取他人商业秘密的行为即已经构成侵犯商业秘密。而后续如果进一步利用,或者公开该等信息,则构成对他人商业秘密的披露和使用,同样构成对权利人的商业秘密的侵犯。
《中华人民共和国刑法》第二百八十五条非法获取计算机信息系统数据、非法控制计算机信息系统罪,是指违反国家规定,侵入国家事务、国防建设、尖端科学技术领域以外的计算机信息系统或者采用其他技术手段,获取该计算机信息系统中存储、处理或者传输的数据,情节严重的行为。刑法第285条第2款明确规定,犯本罪的,处三年以下有期徒刑或者拘役,并处或者单处罚金;情节特别严重的,处三年以上七年以下有期徒刑,并处罚金。
《反不正当竞争法》第九条以不正当手段获取他人商业秘密的行为即已经构成侵犯商业秘密。而后续如果进一步利用,或者公开该等信息,则构成对他人商业秘密的披露和使用,同样构成对权利人的商业秘密的侵犯。

㈦ Python爬虫工程师为什么要花钱看电影

这个问题问的,Python爬虫工程师为什么能不花钱看电影,爬虫是抓取网页内容,又不是P2P分享,当然要去看电影也要花钱呀。

㈧ 用Python爬虫爬取爱奇艺上的VIP电影视频,是违法行为吗

属于违法行为,情节严重者,爱奇艺将有权对您追究法律责任

㈨ python 爬虫可以爬vip电影吗

可以, 不过呢,这里面涉及到协议的解析。 算比较难得。

阅读全文

与用爬虫看电影相关的资料

热点内容
电影薄雾讲的什么意思 浏览:635
子弹飞电影演员 浏览:201
微信群直播怎么看电影 浏览:48
哪里可以看海云台电影 浏览:175
最新美女特工电影免费观看 浏览:385
电影十九层地狱的故事 浏览:235
电影一个女孩上完厕所 浏览:871
电影画皮2美女 浏览:487
后街女孩中文版真人电影 浏览:165
电影和电视如何设置快捷键 浏览:6
七剑电影哪里可以看 浏览:508
叛逆女学生电影 浏览:705
美人鱼爱情电影有哪些 浏览:965
适合初中生看的电影励志片段 浏览:750
好莱坞3d科幻电影 浏览:793
电影哭泣的结局 浏览:947
韩国电影告白中文 浏览:106
周星驰斧头舞是哪个电影 浏览:555
好看的心理电影恐怖 浏览:306
励志伤感微电影 浏览:1