股票小工具-股票評論數

獲取股票在東財股吧的評論情況

import time
import datetime
import requests
import re
from bs4 import BeautifulSoup
from collections import OrderedDict
import hashlib
import tushare as ts
import logging

# import pandas as pd
# from pandas import DataFrame

# 最大查幾天
rangemax = 7


def sortedDictValues3(adict):
    keys = adict.keys()
    keys.sort()
    return map(adict.get, keys)


def md5(str):
    m = hashlib.md5()
    m.update(str)
    returnstr = m.hexdigest()
    return returnstr.upper()


def matchguba_news(htmlcontent, allpost, allcomment):
    """匹配規則"""
    soup = BeautifulSoup(htmlcontent, "lxml")
    divs = soup.find_all(u"div", class_="articleh")
    divnu = 0
    date = ''
    for divitem in divs:
        a = str(divitem)
        # logging.info("====:%s"%a)
        if a.find("財經評論") == -1 and a.find("東方財富網") == -1:
            match = re.findall(r"<span class=\"l6\">(\d\d-\d\d)</span>", a)
            # logging.info(u"lydlyd:%s"%match)
            if match:
                timetemp = match[0]
                date = timetemp.replace('-', '')
                olddate = 0
                # if allpost.has_key(date):
                if date in allpost:
                    olddate = allpost[date]
                allpost[date] = olddate + 1
                oldcomment = 0
                matchcomment = re.findall(r"<span class=\"l2\">(\d+)</span>",
                                          a)
                # logging.info(matchcomment)
                # if allcomment.has_key(date):
                if date in allcomment:
                    oldcomment = allcomment[date]
                allcomment[date] = oldcomment + int(matchcomment[0])
    return date

# 構造 Request headers
agent = 'Mozilla/5.0 (Windows NT 6.2; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.102 Safari/537.36'
headers = {
    'User-Agent':
    agent,
    'Host':
    "xueqiu.com",
    "Accept":
    "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",
    "Accept-Encoding":
    "gzip, deflate, sdch, br",
    "Accept-Language":
    "zh-CN,zh;q=0.8,zh-TW;q=0.6",
    "Connection":
    "keep-alive"
}


def beginguba(stockname, stockscode, rangemaxgb):
    """開始抓取股吧"""
    logging.info("analyse stockcode:%s" % stockscode)
    # logging.info("要抓取的股吧股票為:%s" % stockname)
    logging.info(datetime.datetime.now())
    allpost = OrderedDict()
    allcomment = OrderedDict()
    for i in range(1, 100):
        urla = 'http://guba.eastmoney.com/list,%s,f_%d.html' % (stockscode, i)
        # logging.info(u"股吧數據第%d頁,url:%s" % (i, urla))
        try:
            r = requests.get(url=urla)
            time.sleep(0.5)
            if r.status_code == 200:
                curdate = matchguba_news(r.content, allpost, allcomment)
                # 檢查是否該break掉 (已經抓 到指定天數的數據時就break掉)
                if int(curdate) <= int(rangemaxgb[rangemaxgb.__len__() - 1]):
                    break
                time.sleep(1)
        except ValueError:
            logging.info('analyse stock %s failed'%stockscode)

    # newallpost = collections.OrderedDict(sorted(allpost.items(), key=lambda t: t[0]))
    if allpost.__len__() > 0:
        for datekey in allpost:
            if int(datekey) > int(rangemaxgb[rangemaxgb.__len__() - 1]):
                logging.info("issued_date:%s,number_of_posts:%d,general_comment_number:%d" %
                             (datekey, allpost[datekey], allcomment[datekey]))
    else:
        logging.info(u"no data,or analyse failed.")


def getstocknewscount(stockscode):
    tnow = time.localtime(time.time())
    rangemaxgb = [time.strftime('%m%d', tnow)]
    for i in range(1, rangemax + 1):
        t = time.localtime(time.time() - i * 86400)
        rangemaxgb.append(time.strftime('%m%d', t))

    # logging.info(rangemaxgb)
    # 設定抓取范圍 抓取X天內的數據。直到抓到為止,最多100頁
    urlbegin = 'http://guba.eastmoney.com/list,%s.html' % stockscode
    r = requests.get(url=urlbegin)
    soup = BeautifulSoup(r.content, "lxml")
    stockname = soup.title.string.split(u"_")[0]
    # 股吧數據獲取開始
    beginguba(stockname, stockscode, rangemaxgb)


def main():
    # 記錄到日志里
    logging.basicConfig(level=logging.DEBUG,
                format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s',
                datefmt='%a, %d %b %Y %H:%M:%S',
                filename='stocknews.log',
                filemode='w')
    #定義一個StreamHandler,將INFO級別或更高的日志信息打印到標準錯誤,并將其添加到當前的日志處理對象#
    console = logging.StreamHandler()
    console.setLevel(logging.INFO)
    formatter = logging.Formatter('%(name)-12s: %(levelname)-8s %(message)s')
    console.setFormatter(formatter)
    logging.getLogger('').addHandler(console)


    logging.info('start guba comment count')

    # if len(sys.argv) > 1:
    #     stocklist = sys.argv[1].split(',')
    #     for stockcode in stocklist:
    #         getstocknewscount(stockcode)
    # else:
    #     logging.info(u"輸入股票代碼!")
    # quit()

    # 統計所有的股票
    logging.info(ts.__version__)
    df = ts.get_area_classified()
    for stockcode in df['code']:
        getstocknewscount(stockcode)

    logging.info('finished.')

    # stocklist = ['603337','300017','002665','002230','600566','600660','000957','000999','002304']
    # stocklist = ['300618', '300648', '603799']
    # for stockcode in stocklist:
    #     getstocknewscount(stockcode)


if __name__ == '__main__':
    main()

非常好的模式,讓我今年收益翻倍的文章,強烈推薦:2020年4月至6月凈利潤斷層實戰小結-真香~

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,791評論 6 545
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,795評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事?!?“怎么了?”我有些...
    開封第一講書人閱讀 178,943評論 0 384
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 64,057評論 1 318
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,773評論 6 414
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 56,106評論 1 330
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 44,082評論 3 450
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,282評論 0 291
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,793評論 1 338
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,507評論 3 361
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,741評論 1 375
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,220評論 5 365
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,929評論 3 351
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,325評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,661評論 1 296
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,482評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,702評論 2 380

推薦閱讀更多精彩內容

  • 某互聯網公司,夜深人靜的時候,阿亮和同事依然端坐在電腦前,機械般地敲打著鍵盤,明亮的燈光映照在他們神色凝重的臉上,...
    亦若莎閱讀 347評論 0 0
  • 姓名:母光艷 公司:寧波貞觀電器 第235期,利他二組 【日精進打卡第146天】 【知-學習】 誦讀《六項精進》大...
    母光焱閱讀 64評論 0 0
  • 《世界上的另一個你》,薄薄的一本書,可我卻看了好幾天,直到現在都沒有看完。不是因為長,而是提不起興趣。直到今天,才...
    小木魚的日常生活閱讀 229評論 1 0