
前言 最近沒怎么更新博客,是因?yàn)樽罱齻€(gè)月我主要花時(shí)間在造一個(gè)輪子:深度學(xué)習(xí)庫 Hamaa。 GitHub地址:GitHub : monitor...
前言 梯度下降法(Gradient Descent)是機(jī)器學(xué)習(xí)中最常用的優(yōu)化方法之一,常用來求解目標(biāo)函數(shù)的極值。 其基本原理非常簡(jiǎn)單:沿著目標(biāo)函...
前言 梯度下降法(Gradient Descent)是機(jī)器學(xué)習(xí)中最常用的優(yōu)化方法之一,常用來求解目標(biāo)函數(shù)的極值。 其基本原理非常簡(jiǎn)單:沿著目標(biāo)函...
前言 梯度下降法(Gradient Descent)是機(jī)器學(xué)習(xí)中最常用的優(yōu)化方法之一,常用來求解目標(biāo)函數(shù)的極值。 其基本原理非常簡(jiǎn)單:沿著目標(biāo)函...
前言 整個(gè)快速教程直接上例子,具體對(duì)Cython的使用可以看參考文章。以下工作均在Windows 10 + Python 2.7 + NumPy...
前言 前言屬閑聊,正文請(qǐng)轉(zhuǎn)后。 標(biāo)題比較長(zhǎng),其實(shí)“如何用Python調(diào)用C的函數(shù)”以及“如何編寫Python的C擴(kuò)展”在廣義上是同一件事,因?yàn)槎?..
前言 神經(jīng)網(wǎng)絡(luò)中的權(quán)重(weight)初始化是個(gè)常常被忽略的問題。 最近在手寫一個(gè)Python的神經(jīng)網(wǎng)絡(luò)庫(GitHub:hamaa),剛開始為...
matplotlib庫的教程和使用方法此處就不累贅了,網(wǎng)上有十分多優(yōu)秀的教程資源。此處直接上代碼: 效果圖下圖所示:
前言 先讓我們來看看一個(gè)用到相對(duì)文件路徑的函數(shù)調(diào)用的問題。假設(shè)現(xiàn)在有兩個(gè)腳本文件main.py和func.py,他們的路徑關(guān)系是: func.p...