AI雲平台介紹 : 承羽智慧

AI雲平台介紹 : 承羽智慧

台灣本土的雲平台

有需多範本可以套用

註冊送2點運算點 ( 1點 30 元) , 5G 硬碟免費空間 , 100G 一個月 120元台幣

RTX 3080 10G  1小時大概 4.5 元台幣

RTX 3090 24G  1小時大概 7.5 元台幣

RTX 4060 24G 1小時大概 15.3 元台幣  => 這數量有限 租不太到

(長租優惠看起來是可以租用,沒實際用過)

實際價格以官網為主

 

 

 

邏輯回歸

有時候我們會需要預估各種機率, 圖片是狗的機率, 明天下雨的機率, 對於判斷機率, 

邏輯迴歸是一種非常有效率的機制,可用來計算機率

也可以為機率設定閥值 變成true, false, 的分類機制

例如判斷是否是狗的照片, 機率為多少, 大於多少機率就判斷為真

邏輯回歸是使用Sigmoid 函式: f(x) = 1 / (1 + e^(-x))

圖形是一個S形 : (以下圖片都來自: https://developers.google.com/machine-learning/crash-course/logistic-regression/sigmoid-function  )

線性輸出轉換為邏輯迴歸輸出 :

線性方程式的輸出值 z 可以是非常大或非常小的數值,但經過 S 函數處理後,輸出值 y' 會被映射到 0 和 1 之間(不包括 0 和 1)。

線性迴歸:超參數

https://developers.google.com/machine-learning/crash-course/linear-regression/hyperparameters?hl=zh-tw

參數是紙模型本身的一部分, 例如權重和偏差等變數

超參數則是用於控制訓練過程各個層面的變數。常見的超參數如下:

學習率是個浮點數,會影響模型收斂的速度。如果學習率太低,模型可能需要很長的時間才能收斂。如果學習率過高,模型就不會收斂,而是會在最小化損失的權重和偏差之間來回擺動。

批次大小 是指的是模型在更新權重和偏差之前處理的樣本數量。

您可能會認為,模型應先計算資料集中每個示例的損失,再更新權重和偏差。

不過,如果資料集包含數十萬或數百萬個樣本,使用完整批次就沒有實用性。

有兩種常見的技術可在平均情況下取得正確的梯度,無須在更新權重和偏差之前查看資料集中的每個範例,

這兩種技術分別是隨機梯度下降法小批次隨機梯度下降法

  • 隨機梯度下降 (SGD):隨機梯度下降在每個疊代中只使用單一例項 (批次大小為 1)。在足夠的疊代次數下,SGD 雖然可行,但雜訊相當多。「雜訊」是指訓練期間的變化,會導致損失在迭代期間增加,而非減少。「隨機」一詞表示系統會隨機選擇一個範例,用於組成每個批次。要注意的是隨機梯度下降法可能會在整個損失曲線中產生雜訊,而不僅限於收斂附近。

  • 小批隨機梯度下降法 (小批 SGD):小批隨機梯度下降法是全批和 SGD 之間的折衷方案。對於
    個資料點,批次大小可以是任何大於 1 且小於N的數字。模型會隨機選擇每個批次中包含的範例,計算其梯度的平均值,然後在每次迭代中更新權重和偏差。

    每個批次的範例數量取決於資料集和可用的運算資源。一般來說,小批次會像 SGD 一樣運作,而大批次則會像全批次梯度下降一樣運作

線性回歸:梯度下降

https://developers.google.com/machine-learning/crash-course/linear-regression/gradient-descent?hl=zh-tw

梯度下降是一種數學技巧,可重複尋找權重和偏誤,產生損失最小的模型。

在線性回歸中,梯度下降算法用於找到最佳的模型參數。模型參數包括權重和偏差,梯度下降算法通過調整這些參數來最小化損失函數。

梯度下降法會重複執行以下程序,直到達到使用者定義的疊代次數,藉此找出最佳權重和偏差。

模型會以隨機權重和接近零的偏差開始訓練,然後重複執行下列步驟:

  1. 根據目前的權重和偏誤計算損失。

  2. 判斷如何調整權重和偏差,以降低損失。

  3. 將權重和偏誤值移到較小方向上,以減少損失。

  4. 返回步驟 1,重複執行這個程序,直到模型無法再降低損失為止。

訓練模型時,需要查看損失曲線,判斷模型是否已收斂。損失曲線會顯示模型在訓練過程中損失的變化情形。

線性迴歸:損失

參考資料來源: (邊看邊打的),淺淺理解...

https://developers.google.com/machine-learning/crash-course/linear-regression/loss?hl=zh-tw

在統計與機器學習中,損失是用來評估預測值和實際值之間的差異。用來說明模型的預測結果有多不準確。

損失越大代表預測結果越不準,

訓練模型的目標就是盡量降低損失,將損失降到最小值,

在計算損失函數時, 著重點是預測值與實際值之間的差距離,與正負無關,

所以所有計算損失值的方法都會移除符號。一般常見的有兩種方法:

  1. 實際值與預測值之間差異的絕對值。
  2. 實際值與預測值之間的差異平方。

在線性迴歸中,損失主要分為四種:

  • L1 loss :  預測值與實際值之間差異的絕對值總和。
  • 平均絕對誤差 (MAE) :  L1 loss 的平均值。
  • L2 loss : 預測值與實際值之間的平方差的總和。
  • 均方誤差 (MSE) :  L2 loss的平均值

L1 損失函式與 L2 損失函式 (或者是 MAE 與 MSE) 之間的差異在於是否平方。

當預測值和標籤之間的差異很大時,平方運算會讓損失變更大。

如果差異很小 (小於 1),平方運算會讓損失變更小。

當一次處理多個範例時,無論是使用 MAE 還是 MSE,應將所有範例的損失值求平均值。

這樣可以得到一個整體的損失值,用以評估模型的性能。

線性迴歸

 https://developers.google.com/machine-learning/crash-course/linear-regression?hl=zh-tw

什麼是線性回歸?

線性回歸是一種監督式學習算法,其目的是預測一個連續值的輸出。譬如預測一棟房子的價格。

你可以使用線性回歸來建立一個模型,根據房子的面積(特徵)來預測其價格。

y = w1*x + b

其中 y 是預測的輸出值,x 是輸入特徵,w1 是模型的權重,b 是偏差值

線性回歸可以幫助我們找到最佳的直線,來描述面積和價格之間的關係。

在現實世界中,往往有一個以上的特徵會影響輸出值。例如,在預測房價的例子中,除了面積外,地理位置、交通便利性、學校等特徵也會影響房價。

線性回歸可以輕鬆地處理多個特徵的情況。假設我們有 n 個特徵,線性回歸的方程式如下:

y = b + w1x1 + w2x2 + … + wn*xn

其中,y 是預測的輸出值,x1、x2、…、xn 是輸入特徵,w1、w2、…、wn 是模型的權重,b 是偏差值

線性回歸可以幫助我們找到最佳的直線,來描述面積、地理位置和價格之間的關係。

線性回歸是一種簡單而強大的機器學習算法,用來給出特徵值與輸出值之間的關係