安全のために、AI開発の未来はオープンソースでなければならない

重要なポイント
オープンソース AI により、公開監査と説明責任が可能になり、研究者はクローズド システムよりも早くバイアスやリスクを特定できるようになります。
カリフォルニア州の新しい AI 法と世界的な透明性の取り組みは、情報公開を求める動きが高まっていることを示しています。
オープン モデルとクローズド モデルの両方に、誤用リスクが伴います。
オープンソースAIについては、2つの考え方があります。1つは、AIを公共の安全を脅かす、危険で制御不能な技術と捉える考え方です。もう1つは、AIを最も安全な未来への道筋と捉える考え方です。

しかし、本当の危険は、オープンな監査に抵抗する集中型のブラックボックスシステムにあります。

推定4兆ドル今後5年間でAI開発に投資され、カリフォルニア州はSB53を通じて新たなAI監査要件を実施する。今こそ、クローズド開発アプローチとオープン開発アプローチのどちらかを選択する時です。

●テレグラム始めました!https://t.me/joinchat/F-7ftRCH5u_8J7k2JUM1rw

●無料でLINE@で有益情報を随時流しています。https://lin.ee/1rhkgzo 

●過去の記事
http://ripple.2chblog.jp/

■トレードするならバイナンス!
https://www.binance.com/

■yobit net
https://yobit.net/en/