>> ZG·言語学習 >  >> 理論言語学 >> 形態

シグモイドとは何ですか?

ロジスティック関数とも呼ばれるシグモイド関数は、さまざまな分野、特に機械学習と深い学習で使用される数学的関数です。実際の入力を取得し、0から1の間の値を出力します。ここに故障があります。

定義:

シグモイド関数は次のように定義されます。

`` `

σ(x)=1 /(1 + exp(-x))

`` `

どこ:

* σ(x) xのシグモイド関数を表します。

* x 入力値、実数です。

* exp(-x) は指数関数であり、-xの力に上げられます。

グラフ:

シグモイド関数は、プロットすると特徴的なS字型曲線を持っています。 0から始まり、徐々に増加し、Xが無限に近づくと1に近づきます。

プロパティ:

* 範囲: シグモイド関数の出力は常に0〜1の間です。

* 単調性: 関数は単調に増加しています。つまり、入力が増加すると出力が増加します。

* 誘導体: シグモイド関数の導関数は、関数自体の観点から表すことができます。

`` `

σ '(x)=σ(x) *(1-σ(x))

`` `

アプリケーション:

1。バイナリ分類: 機械学習では、シグモイド関数はバイナリ分類の問題で一般的に使用されます。ニューラルネットワークの出力(通常は重みと入力の線形組み合わせ)を0〜1の間の確率に変換し、1つのクラスまたは他のクラスに属する可能性を表します。

2。アクティベーション関数: シグモイド関数は、人工ニューラルネットワークの活性化関数として使用されます。彼らはネットワークに非線形性を導入し、入力と出力の間の複雑な関係を学習できるようにします。

3。確率推定: ロジスティック回帰などのさまざまなアプリケーションでは、シグモイド関数を使用して、イベントが発生する確率を推定します。

利点:

* 境界出力: 出力は常に0〜1の間で、確率の解釈に役立ちます。

* 滑らかで微分可能: シグモイド関数はどこでも微分可能であり、勾配降下などの最適化アルゴリズムに不可欠です。

短所:

* 消失グラジエント: 入力が非常に大きくなるか、非常に小さくなるにつれて、シグモイド関数の導関数は0に近づきます。これにより、深いニューラルネットワークの消失勾配の問題につながる可能性があり、勾配が小さすぎて学習プロセスが遅くなります。

代替案:

* Tanh(双曲線接線): -1〜1の範囲の別のシグモイドのような機能。

* relu(修正線形単位): 深い学習のための一般的なアクティベーション関数。これは、陽性の場合は入力を直接出力し、それ以外の場合は0です。

結論:

シグモイド関数は、特に機械学習と深い学習において、さまざまな分野で貴重なツールです。実質値の入力を確率様出力にマッピングする便利な方法を提供し、分類を促進し、確率推定を促進し、ニューラルネットワークに非線形性を導入します。ただし、消滅する勾配の問題など、その制限を認識し、必要に応じて代替のアクティベーション機能を検討することが重要です。

著作権 © ZG·言語学習(www.zongjiefanwen.com) 無断複写・転載を禁じます。