「7つのAIリスク」とは 政府AI戦略会議が指摘 人類滅亡も?【WBS特別版】(2023年6月2日)

「人類滅亡の可能性? AIリスク どう向き合う?」フルバージョンをテレ東BIZで視聴(入会月無料)https://txbiz.tv-tokyo.co.jp/wbs/feature/post_275183?utm_source=youtube&utm_medium=meta&utm_campaign=wbs_yt_NJQs-jy3qLY
アメリカの非営利団体、センター・フォー・AI・セーフティーが5月30日「AIによる人類滅亡のリスクを軽減することは、パンデミックや核戦争など他の社会的規模のリスクと並ぶ世界の優先課題とすべき」とする書簡を公開した。書簡にはAI研究の第一人者など350人以上が署名。オープンAIのサム・アルトマンCEOやグーグル傘下のディープマインド、マイクロソフトやグーグルの幹部のほか、「AIのゴッドファーザー」とも呼ばれるジェフリー・ヒントン氏とヨシュア・ベンジオ氏、米ハーバード大学や中国清華大学の教授らも加わった。AIが進化することで起こるリスクとはなんなのか、解説する。

#AI #ChatGPT #オープンAI

powered by Auto Youtube Summarize

Twitterでフォローしよう

おすすめの記事