def read_many(links: list):
loop = asyncio.get_event_loop()
for id_, url in links:
task = asyncio.ensure_future(read_one(id_, url))
loop.run_until_complete(task)
loop.close()
這個寫法 是錯的, 回阻塞, 變成線性執行了, 不是并發了
協程一例:用aiohttp代替requests寫異步爬蟲這篇文章不規范也不完整,重新整理的更詳細規范的介紹見這里,非常不建議閱讀下文。 網上aiohttp做爬蟲的資料太少,官網文檔是英文的看起來麻煩,所以自己部分半帶翻譯式的總結下...