最新消息:可做奥鹏等各院校作业论文,答案请联系QQ/微信:18866732

【奥鹏】南开21秋学期《网络爬虫与信息提取》在线作业

21秋学期(1709、1803、1809、1903、1909、2003、2009、2103)《网络爬虫与信息提取》在线作业

试卷总分:100  得分:100

一、单选题 (共 20 道试题,共 40 分)

1.Python中线程池map()方法第二个参数是()

A.列表

B.元组

C.字典

D.集合

 

2.通过()爬取伪装成异步加载的后端渲染数据

A.正则表达式

B.Json字符串

C.JavaScript

D.Get

 

3.下面Python代码输出为(): def default_para_without_trap(para=[], value=0): if not para: para = [] para.append(value) return para print(‘第一步:{}’.format(default_para_trap(value=100))) print(‘第二步:{}’.format(default_para_trap(value=50)))

A.第一步:[100] 第二步:[100,50]

B.第一步:[100] 第二步:[50]

C.第一步:[100] 第二步:[]

D.第一步:[100] 第二步:[100]

 

4.Python中若定义object=(1, 2, 3, 4, 5),则print(object[1:3])输出()

A.12

B.123

C.23

D.234

 

5.在Scrapy的目录下,哪个文件负责数据抓取以后的处理工作?()

A.spiders文件夹

B.item.py

C.pipeline.py

D.settings.py

 

6.浏览器用来记录用户状态信息的数据叫

A.session

B.cookies

C.moonpies

D.selenium

 

7.PyMongo中查询所有age > 29的记录是()

A.collection.find({‘age’: {‘$gt’: 29}})

B.collection.find({‘age’>29})

C.collection.find_all({‘age’: {‘$gt’: 29}})

D.collection.find_all({‘age’>29})

 

8.Redis中往集合中添加数据,使用关键字()

A.sadd

B.add

C.append

D.sappend

 

9.Redis中如果不删除列表中的数据,又要把数据读出来,就需要使用关键字()

A.range

B.lrange

C.srange

D.pop

 

10.在Python中,为了使用XPath,需要安装一个第三方库()

A.lxml

B.xml

C.xpath

D.path

 

11.Python操作CSV文件可通过()容器的方式操作单元格

A.列表

B.元组

C.字典

D.集合

 

12.某些网站在发起Ajax请求时会携带()字符串用于身份验证

A.Token

B.Cookie

C.ReqTime

D.sum

 

13.PyMongo中逻辑查询表示不等于的符号是()

A.$gt

B.$lt

C.$eq

D.$ne

 

14.下列说法错误的是()

A.Charles只能截获HTTP和HTTPS的数据包,如果网站使用的是websocket或者是flashsocket,那么Charles就无能为力。

B.有一些App会自带证书,使用其他证书都无法正常访问后台接口。在这种情况下,Charles自带的证书就不能正常使用,也就没有办法抓取这种App的数据

C.有一些App的数据经过加密,App接收到数据以后在其内部进行解密。Charles无法获取这种App的数据

D.对于上述情况,Charles能抓取到经过加密的数据。但是如果无法知道数据的具体加密方法,就没有办法解读Charles抓取到的数据。

 

15.使用Xpath获取文本使用()

A.text

B.text()

C.content

D.content()

 

16.启动MongoDB使用命令mongod –() usr/local/etc/mongod.conf

A.config

B.install

C.start

D.begin

 

17.Redis中查看一个列表长度,使用关键字()

A.len

B.length

C.llen

D.count

 

18.Python中若定义object=”12345″,则print(object[::-1])输出()

A.1

B.5

C.54321

D.程序报错

奥鹏作业答案请进open5.net或请联系QQ/微信:18866732

19.在Scrapy的目录下,哪个文件负责存放爬虫的各种配置信息?()

A.spiders文件夹

B.item.py

C.pipeline.py

D.settings.py

 

20.当爬虫运行到yield scrapy.Request()或者yield item的时候,下列哪个爬虫中间件的方法被调用?

A.process_spider_output()

B.process_spider_exception()

C.process_spider_input()

D.process_start_ requests()

 

二、多选题 (共 10 道试题,共 20 分)

21.在配置ios使用Charles的操作中,正确的有()

A.对于苹果设备,首先要保证计算机和苹果设备联在同一个Wi-Fi上。

B.选择“HTTP代理”下面的“手动”选项卡,在“服务器”处输入计算机的IP地址,在“端口”处输入8888

C.输入完成代理以后按下苹果设备的Home键,设置就会自动保存。

D.安装完成证书以后,在设置中打开“关于本机”,找到最下面的“证书信任设置”,并在里面启动对Charles证书的完全信任

 

22.下载器中间件的作用有哪些?

A.更换代理IP

B.更换Cookies

C.更换User-Agent

D.自动重试

 

23.下列关于在IOS上配置charles的说法正确的是()

A.不同ios设备之间会有比较大的差别,所以配置的时候需要找到对应的安装证书的入口。

B.手机和电脑需要在同一个局域网下。

C.HTTP代理可以使用“自动”选项。

D.安装好证书以后,打开iOS设备上的任何一个App,可以看到Charles中有数据包在流动

 

24.如果爬虫爬取的是商业网站,并且目标网站使用了反爬虫机制,那么强行突破反爬虫机制可能构成()

A.非法侵入计算机系统罪

B.非法获取计算机信息系统数据罪

C.非法获取计算机数据罪

D.非法获取系统罪

 

25.Python中一个函数没有返回值则可以写()

A.没有return

B.return

C.return None

D.return NULL

 

26.使用BeautifulSoup对象后可以使用()来查找内容

A.find_all

B.find

C.search

D.search_all

 

27.PyMongo删除操作有()

A.delete

B.delete_all

C.delete_one

D.delete_many

 

28.以下哪些方法属于Python写CSV文件的方法()

A.writeheaders

B.writeheader

C.writerrows

D.writerow

 

29.MongoDB中获取名字为db的库的语句为()

A.client.db

B.client(‘db’)

C.client[‘db’]

D.client{‘db’}

 

30.Python中()容器有推导式

A.列表

B.元组

C.字典

D.集合

 

三、判断题 (共 20 道试题,共 40 分)

31.中间人攻击也是抓包的一种。

 

32.在请求头中设置User-Agent即可正常请求网站

 

33.UI Automator Viewer与Python uiautomator可以同时使用

 

34.device.sleep()方法是使用UI Automatorr关闭屏幕的命令

 

35.爬虫的源代码通过公开不会对被爬虫网站造成影响

 

36.虽然MongoDB相比于MySQL来说,速度快了很多,但是频繁读写MongoDB还是会严重拖慢程序的执行速度。

 

37.打码平台都是靠机器使用OCR技术识别图片上的文字。

 

38.Python中包含字典的列表页可以转换成JSON字符串

 

39.需要实名认证的打码网站更加安全可靠。

 

40.MongoDB URI的格式为: mongodb://服务器IP或域名:端口@用户名:密码

 

41.MongoDB中ObjectId可以反向恢复为时间

 

42.验证码必须通过手动填充识别。

 

43.使用UI Automatorr操作实体键的命令为device.press.实体按键名称()

 

44.在MacOS下若要运行Redis可以运行解压以后的文件夹下面的src文件夹中的redis-server文件启动redis服务 src/redis-server

 

45.开源库pytesseract的作用是将图像中文字转换为文本。

 

46.Redis的集合与Python的集合一样,没有顺序,值不重复

 

47.mitmproxy的强大之处在于它还自带一个mitmdump命令。这个命令可以用来运行符合一定规则的Python脚本

 

48.process_spider_input(response, spider)是在爬虫运行yield item或者yield scrapy.Request()的时候调用

 

49.上课传纸条。A要把纸条传给B,但是A与B距离太远,于是让C来转交纸条。此时,C先篡改纸条的内容再传给B,这是一种类似抓包的方式。

 

50.在安装Scarpy的依赖库时,由于Visual C++ Build Tools的安装速度很慢,为了节省时间,可以和安装Twisted同时进行

转载请注明:奥鹏作业之家 » 【奥鹏】南开21秋学期《网络爬虫与信息提取》在线作业

发表我的评论
取消评论
表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址