俺もくるくるパーだからわからないんよ
誰か教えてちょ?
多次元の空間を作って、どの方向に近づいた方が最適になるかを計算するからだよ
高校の時の先生が内積って今からめっちゃ使うぞ!よく覚えておけって言ってた20年以上前の話
言うほど難しいか?
理系だと分からないとぶっ殺されるレベルなんだが
難しい物事を図で説明することよくあるだろ
図で計算するんだよ
ベクトルの各成分を脳細胞のひとつひとつとしてシミュレートするみたいなもんだから
画像処理でパターン認識が関わってくるんで
線形代数やベクトル演算は必須だよな(´・ω・`)
多変量パラメータから同じ方向の特徴量を抽出するからだよ
けどやっと内積教える先生もこれは金のためになるんや!って教えられるね
先端科学や先端科学を厳密に理解するのって
人類の99.99999999%にはもう無理でしょ
俺らがわかるのはブルーバックス的な「概要」だけ
その部分を教養として知っていればそれでいいんじゃないかな
もともと機械学習で内積は近似値を見つけるときによく使う手法のひとつ
別にAIに限らない
ただの統計アルゴリズムだろ
人工知能を名乗るなよ
意味を理解してこその人工知能だ
「ある2線の成す角が何度であるか」これを求めるだけでもベクトルの内積が必要だが
高校時代詰め込みだけしていた自称IQ高い池沼クルクルパージャップには内積って響きだけでしょんべんチビらす
小学生一年生に足し算教えるときリンゴの絵とか出てくるけど
そのレベルじゃないと分からないね
内積と呼べる演算にもいくつか種類があって一意じゃない
数学の応用問題がいらねえんだよ
三角関数とベクトルと行列で3DGの仕組み教えとけ
中卒の俺でも理解できて楽しかった
計算はそこまで複雑なものじゃないし意味も本見りゃ書いてあるだろ
何が分からないんだ
わかりやすく説明するとサポートベクターマシンでは無限次元ベクトル空間に非線形写像する際に正定値関数である任意のカーネル関数に対して
k(x,y)=<k(·,x),k(·,y)>Hkを満たすRKHSを定義するとヒルベルト空間に分布するベクトル値を線形解析することができるんだ
これ要はこういうことでしょ
みかんとりんごが流れてくるベルトコンベアがあって流れてくるのがどちらか認識しなければいけない
この時AIは対象物が赤ければりんご、オレンジ色ならみかんと判断する(ように学習させる)
やがてレモンも流れてくるようになった
AIは赤に近ければりんご、黄色に近ければレモン、中間ならみかんと判断する
りんごの赤とみかんのオレンジ色、レモンの黄色を軸にした直線の、どこに一番近いかを判断する
やがてバナナも流れてくるようになった
色だけでは判断できないのでAIは判断項目を増やす
丸いのがりんごとみかん、細長いのがバナナ、ちょっとだけ長いのがレモン、色の他に細長さという軸を加えて二次元平面で一番近い点を探す
この一番近い点を探すためにベクトルを使う
という理解であってる?
高次スプライン曲線を使った機械学習だと
学習のために100次連立方程式とか解きまくったりするから
ベクトルと多行多列の逆行列計算が不可欠
>>31
ニューラルネットワークと特徴点組み合わせたAIの概念はおおよそそんなもんだけど
特徴点距離はベクトルとは関係なくてもっと複雑。その諸計算にベクトル行列積分が必要 あんまりパラメータが多いと過剰適合が起こるってどっかで見たな
>>1
ベクトルはある方向へ向かう力として例えば
じゃんけんでグー・チョキ・パーの内
初手で勝つ確率が高いもの、性別的に勝つ確率が高いもの、土地柄的に勝つ確率が高いものとかそんな感じにいろんなあらゆる傾向の累積でよりベターなのはグー・チョキ・パーのいずれかって判断の精度を高めていくみたいな
イメージ
要はデータ傾向の累積やね >>1
行列って要するに画像だから
画像認識で画素を計算で使うってだけやぞ😾 >>31
まあこれでもディテクション出来る
バックグラウンドをサブトラクトして
平均カラーの抽出と2値化して真円度の計算だね
カラーだけで3次元+真円度で4次元のパラメータを入力し
クラスタリングして閾値を決める
そしてディテクション関数の出来上がりだよ
ニューラルネットは必要ない
クラスタリングと閾値決定したいならニューラルネットを使っても良いが
このレベルなら閾値のが早くて精度も高いだろう🐱 >>26
2×3に複素数の掛け算、行列の掛け算が必要とか言ってそう ニューラルネットは大学の1、2年の数学ができれば8割はわかるでしょ
ぐねぐねしてる図形でも接空間なら線形代数の世界やからな
機械学習でノードなりニューラルを入力方向から垂直に単位ベクトル化したけど、処理が重くなるだけであんまり面白くなかった
最適化の勾配計算に慣性やら学習バイアス付けた数学者は偉い
>>15
その教養レベルでこのレベルにならんといけないのか....
【外資コンサル】数学修士がうごめく・・・知られざる専門職の過酷な実態とは!?【アクチュアリー】
ダウンロード&関連動画>>
【数学】紅一点!?高学歴リケジョの世界を垣間見た結果・・・!!【修士】
ダウンロード&関連動画>>
&t=238s
1+1=2の証明ってなんだよ(哲学) 方向要素全く無いのにベクトルなんて言葉を使うからややこしくなる
ただ数値のセットの計算ですよって意味でしかない
結局は計算してるだけで
ちっとも知能じゃないんだよな
縮小推定の話とか方向のイメージなしだと逆にわかりにくいだろ
そーいや外積ってあんまみないね
物理ではよく使うし確かに便利だけど
つまり・・発症なし者や若者は今死なないだけで・・いずれこのウィルスで死ぬ・・
シューティングゲームのホーミング弾も内積使ってるからな
フーリエ変換も
関数=ベクトル、関数同士の積分=内積
線形代数なんてデータ解析でも必須なのに
高校数学からどんどん削除されて行ってる
有効電力はベクトルの内積 無効電力はベクトルの外積
但し複素数 虚部 イマジナリパート 暇ジナリパートといいます
>>60
高校の行列はあまり線形代数っぽさがないからなあ
せめて固有値固有ベクトルの内容が充実してれば良かったんだが 数学では何でこんなの必要かと思ったけど、
電磁気学習ってようやく、現実世界と結び付いた
>>67
内積の具体的な話って大学で初めて習わんか?
東大とか受験するなら高校でやるかもしれんけど >>3
すべてのパラメーターをデーターとして扱う主成分解析などのこと
重心を捉えるために内積を使うってことだよな
確か 内積は単独の計算としてどうというよりも
基底変換の要素っていうのが俺の感覚ではメイン
時間軸tの信号を周波数軸ωのスペクトルに変換するフーリエ変換も
基本的には基底ベクトルとの内積による基底変換
ベクトル代数の基礎を知らん奴に簡単に説明すると
基底ベクトル ex=[1,0]、ey=[0,1] と任意の2次ベクトル [a,b] の内積を取ると
それぞれa、bというxとyの要素がとれるだろ
これは例えば ex=[1,1]、ey=[1,-1] と置いても良くて
その場合 [a,b] は [a+b,a-b] に変換される
これだけじゃ何のこっちゃだが
この基底ベクトルを上手く選ぶと、さっき言ったように時間信号が周波数分布に変換できたり
あるベクトルの特徴量がわかりやすくなったりするんだな
現代科学の基礎の基礎だね