2016年9月9日 游戲人生

閑的無聊,總結一下自己的人生軌跡。也算是給即將離開的我,一個簡單的交代,從大連出來快半年了,時間說長不長,說短不短。狀態也從來時的好奇,變成了我靠,其實也就這屌樣。不過事實上證明,長期出門在外,確實有差別,而且差別感覺比較大……

差別主要體現在如下幾個方面,首先氣候,4個月的時間,處于熱的狀態,但是現在已經開始轉涼,感覺上還是蠻舒服的。但是相對于大連的夏天氣來講,感覺上還是比較遭罪的。其次,對于城市的氛圍來講,用幾個字來形容,用紙醉金迷四個字來形容感覺上比較貼切,準不準確,我只說我的感覺。不管怎樣,為生活去打拼的人,都是值得尊敬的,且不論在哪里,在哪座城市。比如,華為方面的劉工,總是保持著一種極高的熱情,我有些服了┗┃? ■ ?┃┛。畢竟人家身處華為,我自己幾斤幾兩還是能找得準位置的。

說說,華為的外包,可能自己所在的項目組比較爛,但總體感覺,外包就是去賣人嘛,待久了項目不行,人廢掉了,我跟陳桑學習了4個月的大數據分析,接觸點新的東西。對于畢業一年的我來講也沒有什么壞處。像機器學習,這種以前聽過,但確實不知道做什么的我來說,未必是件壞事。大數據這東西,說白了,就是個統計學的工具,炒的火熱,終究是要冷下來的。具體的代碼邏輯,都體現在特征的提取上了。

說說平臺,數據分析平臺,hadoop,spark,哈哈,高大上嗎?事實上,就是搭環境比較麻煩點,嘗試過(Θ?Θ=),沒搭起來。確實不想去搭,知道原理就可以了。

大數據架構,要解決3個問題,數據存儲,資源調度,計算。數據存儲,hadoop跟spark平臺,用hdfs,還有metastore就是分布式數據庫。資源調度,有相應的平臺框架,叫Yarn,但不止這一個,計算,hadoop是mapReaduce,spark是對RDD,的具體操作。像這兩種平臺,基于分布式,所謂分布式,就是一群屌絲,去比高富帥。分布式 ,有一個master節點,這是主節點,剩下的就是store,從節點,master節點負責資源的分配。樹形結構來形容最為貼切。spark平臺,反正華為的劉工一直在鼓勵使用,事實上確實有優勢,spark SQL,spark stream, spark Mlib,spark Graphx。這幾個模塊,SQL用來提取特征,stream流式計算,Mlib 機器學習,Graph圖論,關鍵關系,后兩個是算法,具體實現在源碼里,輪不到你寫。用的時候,導包,調對象方法,哈哈(?ω?)hiahiahia 。兩種平臺,都是統計學做數據分析用的。對了,大數據是描述到預測的過程,描述有多種方式,預測,用統計學的回歸方程,就是y=kx+z,這是線性回歸,還有非線性跟分段函數,保證你以前學過。像這種數據分析,用R語言跟Python要好些,感覺上。。。其實,比較屌的是這些工具怎么寫的,而不是怎么去用,雖然用起來也一堆坑。。。

比較復雜的是業務邏輯,搞不清,懵的一逼(>﹏<),想將來有機會搞一搞實際的大數據項目,從前端到后臺,沒事自己也可以瞎寫一下,比如預測一下自己未來某一天的心情狀態,娛樂嘛。。。哈哈(?ω?)hiahiahia

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容