python離散建模之感知器學習算法

我們將研究一種判別式分類方法,其中直接學習評估 g(x)所需的 w 參數。我們將使用感知器學習算法。
感知器學習算法很容易實現,但為瞭節省時間,我在下面為您提供瞭一個實現。該函數有幾個輸入:訓練數據、訓練標簽、對權重的初始猜測和學習率。註意,對於這兩個類,類標簽的值必須為+1和-1。

它將返回一個元組,其中包含:

  • 1.學習w參數
  • 2.執行的迭代次數
  • 3.錯誤分類的樣本數

花些時間檢查代碼。如果不清楚每一行是如何工作的,不要擔心,隻要讓你自己知道每一行的目的是什麼就可以瞭。代碼中有一些註釋可以幫助大傢。

def perce(X, y, w_init, rho, max_iter=1000):
    
    (N, nfeatures) = X.shape

    # Augment the feature vectors by adding a 1 to each one. (see lecture notes)
    X = np.hstack((X, np.ones((N, 1))))
    nfeatures += 1

    w = w_init  # initialise weights
    iter = 0
    mis_class = N  # start by assuming all samples are misclassified

    while mis_class > 0 and iter < max_iter:
        iter += 1
        mis_class = 0
        gradient = np.zeros(nfeatures)  # initaliase the gradients to 0

        # loop over every training sample.
        for i in range(N):
            # each misclassified point will cause the gradient to change
            if np.inner(X[i, :], w) * y[i] <= 0:
                mis_class += 1
                gradient += -y[i] * X[i, :]
        # update the weight vector ready for the next iteration
        # Note, also that the learning rate decays over time (rho/iter)
        w -= rho / iter * gradient

    return w, iter, mis_class

解釋:

X-數據矩陣。每行代表一個單獨的樣本
y-與X-標簽行對應的整數類標簽的一維數組必須為+1或-1
w_init-初始權重向量
rho-標量學習率
最大迭代次數-最大迭代次數(默認為1000)

def perce_fast(X, y, w_init, rho, max_iter=10000):
  
    (N, nfeatures) = X.shape
    X = np.hstack((X, np.ones((N, 1))))
    nfeatures += 1
    w = w_init
    iter = 0
    mis_class = N
    yy = np.tile(y, (nfeatures, 1)).T
    while mis_class > 0 and iter < max_iter:
        iter += 1
        # Compute set of misclassified points
        mc = (np.dot(X, w.transpose()) * y) <= 0
        mis_class = np.sum(mc)
        # Update weights. Note, the learning rate decays over time (rho/iter)
        w -= rho / iter * (np.sum(-yy[mc, :] * X[mc, :], axis=0))
    return w, iter, np.sum(mc)
  • 感知器算法的高效實現
  • 對於筆記本電腦數據,此版本的工作速度將提高x100!

到此這篇關於python離散建模之感知器學習算法的文章就介紹到這瞭,更多相關python感知器學習算法內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!

推薦閱讀: