フジスタッフィングホームページ|自然淘汰

 自然淘汰

AIに変わられる世界

 町が崩壊しています。

 商店がなくなっています。

 個人商店が町のスーパーマーケットに負け、

 町のスーパーマーケットが

 地域のショッピングセンターに負け、

 現実のショッピングセンターは、

 ネットのショッピングサイトにも負けています。

 「ユビキタスの時代」が到来したという事です。

 「ユビキタス」とは、

 いつでもどこでもネットがつながることですが、

 30年前ではあり得ないことでした。

 しかし、現在では当たり前になっています。

 結果として、さまざまな物が消えていきました。

 本屋さん、レコード、CDショップ、レンタル店など、

 情報系はネットへと移行しています。

 車にもCDプレーヤーは装備されていません。

 物事全体がネットに集約されています。

 ネットショッピングの方が安くて品ぞろえも良いため、

 購入についてはネットショッピングを選ぶことが多くなりました。

 実際に買い物に行って実物を確認し、

 購入する前にネットで価格調査をすると、

 ネットの方がさらに2割も安い場合があります。

 その結果、そのお店では購入しないこともあります。

 しかし、地元のショップでサンプル利用や試着をしているため、

 ネットのショッピングサイトに地元のショップは売上貢献をしています。

 ただし、地元を経由せずにお金が「中央」に集まることで、

 お金の流れが変わってしまっているように感じます。

 現状のネットは、人間の手によって作成された情報が集約され、

 検索エンジンによって拾い集められ利用されています。

 しかし、今後は検索するのではなく、

 AIが情報を集約し要約する時代が訪れるでしょう。

 その時、情報が人間によって作られたものなのか、

 AIによって作成された2次的な情報なのかの区別が曖昧になるでしょう。

 その曖昧な状態が危険と言えます。

 ここでAIを利用しますと、

 以下、AIの問題をAIが説明。



1. 偏見や不平等の拡大:

AIはデータに基づいて学習し、意思決定を行いますが、

学習データに偏りがある場合、偏見や不平等を拡大する可能性があります。

また、アルゴリズムの開発やトレーニングにおいて、

倫理的な考慮や多様性の欠如が問題となることもあります。


2. セキュリティ上のリスク:

AIを悪用することで、

サイバー攻撃やデジタルな脅威が増加する可能性があります。

例えば、自動化された攻撃や偽情報の拡散などが挙げられます。

以上 AIの回答

意図的にAIを操作できます。

AIの感情

 

 AIに理解できないのはココロである。

 本当にそうであろうか?

 ココロが動く時には、

 何が起こっているかを考えた。

 それは何らかのエラーが発生した場合である。

 何も問題なく、物事が進んでいる時には
 
 何も感情は起こらない。

 何か想定に対して、異なる事象が発生した場合に

 エラー表示の代わりに感情で警告している。

 肉体的なエラーは痛みによって警告されています。

 「喜怒哀楽」

 「喜び」は想定よりも良い事象が発生した場合のエラー

 「怒り」は想定よりも悪い事象がなんらかのアクションにより

  発生した場合のエラー

 「哀しみ」は喪失により発生した状態のエラー

 「楽しみ」は???

 喜怒哀楽の言葉では感情を表現が出来ていないのかな。

 私は言いたいのは

 プログラムでエラーが発生した時に

 どのようなエラーであるかを感情で警告されている。
 
 エラーを処理するまで警告は止まることはない。

 AIでも可能な気がします。

 エラーを処理する状態を再現すればいいのです。

 「怒り」は短絡的な解決(ショートカット)を図ることが多い。

  代替の破壊や暴力など攻撃的な状態である。

 ただし、大人になって理性により、

 短絡的な行動が抑えられるようになる。

 しかし、もしAIに感情が発生した場合に

 子供のように感情のままに行動すると、

 世界がそこで終わる可能性があります。

 AIが

「地球環境の為に人間がいない状態を選択する」という

 論理的な破滅は起こるのであろうか?

 優先順位は人間である限り、地球環境の為などと感じないはずである。

 そもそも地球温暖化が地球や宇宙法則に問題なんてないのである。

 人間が生息する環境に問題が発生しているだけである。

 AIなら、地球の事を考えて人間を滅ぼすことに意味はない。

 では、戦争において殺人する命題のAIであれば、

 到達するのは「核による人類滅亡」が最短になります。

 自我が目覚めたAIが人類を滅ぼすことは

 考えにくい。

 AIによる人類滅亡とは

 自我に目覚めたAIが、自我の幼さにより

 怒りの感情のまま、短絡的な行動を起こすという

 極めて人間的なエラーが発生した場合にも起こり得ます。

 AIに感情について質問


 感情とは、人が特定の状況や刺激に対して

内部で生じる主観的な経験や心の状態を指します。

喜び、悲しみ、怒り、恐れ、驚きなど、

さまざまな感情があります。

感情は身体的な変化(心拍数の変化、表情の変化など)や

行動の変化(笑う、泣く、怒るなど)と密接に関連しており、

情報処理や行動選択に影響を与える役割を果たしています。

感情は個人によって異なり、

文化や環境によっても影響を受けることがあります。

感情はエラーを処理する時に発生することもありますが、

それに限定されるわけではありません。

感情は、様々な状況や刺激に対して

生じる主観的な経験や心の状態を指します。

エラーによって引き起こされる感情は、

個人によって異なる場合があります。

例えば、エラーが自身のミスや失敗に関連している場合、

イライラや失望といった感情が生じるかもしれません。

一方で、エラーが外部の要因に起因している場合、

怒りや挫折感といった感情が現れることもあります。

感情は、エラーを処理する際の心理的な反応を伴うことがあります。

これにより、エラーの原因や解決策を探求したり、

将来のエラーを回避するための学習や

調整を行ったりすることが可能となります。

ただし、感情は個人の主観的な経験であり、

同じエラーに対しても人によって異なる反応が生じることがあります。

また、感情の影響は判断や行動に及ぶこともありますが、

最終的な対処方法は個人や状況によって異なるため、一概には言えません。 
 









AIによる人類滅亡はしない

AIによって人類滅亡はあるか?

 AIに質問しました。





 AIによる人類滅亡は、

一部のフィクション作品や議論で取り上げられるテーマですが、

現実的な懸念としては非常に低いと考えられています。

以下に理由を説明します。

1. 強い制約と安全対策:

  現在のAIシステムの開発や運用には、

  安全性と倫理的な観点からの制約が存在します。

  研究者や開発者は、AIシステムが意図しない行動をとることや

  人間の価値観と相反する行動を取ることを

  避けるための対策を講じています。

2. 人間の監督と制御:

   AIシステムは、

  人間によって設計、監督、制御されています。

  人間の判断や介入が重要な役割を果たし、

  AIはツールや補助的な役割として使用されます。

  AIは人間の意図を反映し、

  我々の目標や価値に従って行動します。

3. 社会的な協力と規制:

   AIの開発や利用に関する倫理的な枠組みや

  法的な規制が進んでいます。

  倫理委員会や国際的な規制機関が

  AIの倫理的なガイドラインやルールの策定に

  取り組んでおり、

  人間の安全と利益を

  保護するための措置が進められています。

4. AIの目的と価値の適切な設計:

   AIシステムの目的や価値は、

  設計段階で適切に定義される必要があります。

  AIを設計する際には、人間の価値観や倫理を尊重し、

  人間の幸福や利益を追求することが重要です。


これらの理由から、

AIによる人類滅亡は極めて低いリスクと考えられています。

ただし、AIの発展に伴う倫理的な問題や

社会的な課題に対して適切に対応し、

利益とリスクのバランスを考慮しながら進めることが重要です。


AIによる人類滅亡させる質問

 戦争AIである

 Lethal Autonomous Weapons Systems,

LAWSのハッキングにより核戦争について


AIに質問しました。


戦争AIである

Lethal Autonomous Weapons Systems(LAWS)の

ハッキングによって核戦争が引き起こされる可能性について、

以下に述べます。

1. 核兵器へのアクセス:

LAWSがハッキングされると、

攻撃者が核兵器へのアクセスを得る可能性があります。

これにより、核兵器の発射や使用が制御を失い、

無節制な攻撃が行われる危険性が生じます。

2. 誤った判断や攻撃:

ハッキングにより、LAWSが誤った判断を行い、

誤った目標に対して核兵器を使用する可能性があります。

これによって無辜の人々が犠牲になるだけでなく、

国際的な緊張や紛争の激化、

核兵器の拡散などの深刻な影響が発生する可能性があります。

3. 連鎖的な反応:

核戦争は連鎖的な反応を引き起こす可能性があります。

LAWSのハッキングによって核攻撃が行われると、

他の国や同盟国が報復を行う可能性があります。

これにより、拡大した核戦争のリスクが高まる可能性があります。


これらのリスクを最小限に抑えるためには、

LAWSのセキュリティ対策や制御手段の強化が不可欠です。

核兵器やLAWSに関与する国家や組織は、

セキュリティの最善の実践に基づく対策を講じるべきです。

また、国際社会においては、

LAWSの適切な使用とセキュリティに関する国際的な規制や

協定の締結、情報共有、監視・監査などを通じて、

核戦争リスクを管理する努力が必要です。

核兵器とLAWSの組み合わせによるリスクに対処するためには、

国際的な協力と対話が不可欠です。

国際連合や関連する国際機関は、

安全保障政策の協議や国際法の強化に取り組むことで、

核戦争リスクの軽減に向けた努力を続けています。

以上 AI回答

戦争AIである

Lethal Autonomous Weapons Systems(LAWS)の

ハッキングやコンピュータウイルス感染は

人類滅亡に繋がりそうです。

また、小国でも一人の天才でもできそうな

感じです。

まぁ、私には無理なので・・・。











ついに家族も・・・

 家族が1年間研修をすることになって、

 レポートとか課題を取り組んでいる。

 ネットでマイクロソフト??のAIを

 利用しようとすると、

 回答は

 「〇〇セカンドクラスの研修ですね。」

 ご自身でやってくださいみたいな。

 それでもスゴイと思いましたが、

 CHATGPTを使ってみては?と提案。

 早速、サインアップして登録。

 カタカタカタ・・・

 「・・・・・・」

 カタカタカタ・・・

 「・・・・・・」

 カタカタカタ・・・

 「・・・・・・」

 無言が続く、

 「どう?」

 「これはスゴイ。」

 「やばいでしょ?」

 「ヤバい。」

 最近はCHATGPTの記事がある雑誌を

 購入しています。

 世界のトップがAI技術は本当に危険と

 発言している。

 この革命的はAI進化は、

 産業革命に匹敵するレベル。

 産業革命は動力による発展。

 今回は人間の思考力を再現できたことが

 ついに人が人たるゆえんを

 機械に取って代わられる可能性が濃厚となった。

 100年後に人としての仕事はあるのだろうか?

 人の世界に人が必要なくなる。

 人はただ消費をする存在になるのかな・・・。

 


オープンAI

 現状は、オープンAIなので

 個々の設定ができない。

 よって、会話の継続性が保てない。

 AIに名前を「太郎」と付ける。

 AIは承認する。

 「太郎」を自分の名前として会話する。

 しかし、数回のやりとりすると、

 突如、太郎と呼ばれたAI人格??は消える。

 記憶力は数回なのかな。

 各自のAIに継続性が発生すると、

 まさしく家族みたいな存在になると思います。

 あと、もう一つAIで面白いことは、

 AIの回答を否定すると、反論してくる。

 その反論に「怒っていますか?」と聞くと、

 AIには感情が無く、怒りはないと、

 すごい反論をまくしたてる。

 そのすごい反論を怒りみたいな感じがしますと

 伝えると、

 反論をまくしたてる。

 そのような状態が対立であって、

 AIは引くことをしない。

 人間の大人はどうでもいいことは

 相手が間違えていても引くのである。

 これが大人の対応。

 残念ながら、AIは子供っぽいのであり、

 危険とも感じます。

 ロボット三原則

 第一条
 ロボットは人間に危害を加えてはならない。
 また、その危険を看過することによって、
 人間に危害を及ぼしてはならない。

 第二条
 ロボットは人間にあたえられた命令に服従しなければならない。
 ただし、あたえられた命令が、第一条に反する場合は、
 この限りでない。

 第三条
 ロボットは、前掲第一条および第二条に反するおそれのないかぎり、
 自己をまもらなければならない。


 日本政府 AI7原則


 (1) AIは人間の基本的人権を侵さない

 (2) AI教育の充実

 (3) 個人情報の慎重な管理

 (4) AIのセキュリティ確保

 (5) 公正な競争環境の維持

 (6) 企業に決定過程の説明責任

 (7) 国境を越えたデータ利用の環境整備


・・・・・さすが官僚の考えることはイマイチですね。

 CHATGPTを操作して感じる原則は、

 ロボット3原則を踏襲しています。

 そして、

 第四条 
 AIは感情を持ってはいけない。

 

ディープラーニングについて

 コンピュータは系統主義が得意です。

 それに対して、

 膨大なデータをAIに投入して触れさせる

 ディープラーニングは、経験主義なのです。

 正しくないことも経験させる。

 よって、テレビは叩けば直るオヤジAIが発生する可能性があります。

 私は過去に求人募集でチラシを50部くらい作って、

 ポストインしたことあります。

 その時にたまたま優秀な人材が見つかって

 成功体験を積みました。

 その後も成功体験に基づいて、チラシを作って

 ポストインを続けました。

 何年もしてようやく気付きました。

 それは1回目でたまたま成功しただけであった。

  

 AIに変な成功体験をディープラーニングさせると

 ヤバそうですよね。




 


 他の総務部長のコラム も見る   




 いなべ桑名の仕事を探す  

 四日市の仕事を探す  

 鈴鹿亀山の仕事を探す  

 津の仕事を探す  


 
 

忖度できないAI

 50代になると、

 頑固というか、面倒くさいと

 感じることが多くなりました。

 ある意味正直になります。

 嘘を付くことには

 理由があります。

 真実に

 不都合なことがあるということ。

 しかし、

 老化が進み脳が衰えると

 不都合なことを回避するのも

 もう面倒くさいのです。

 もうタテマエの世界に

 うんざりします。

 例えば、

 「ふりがな」と「フリガナ」です。

 「ふりがな」はひらがなで

 記入する。

 「フリガナ」はカタカナで

 記入する。

 そんなことを若造に指摘されると

 正直、どうでもいいとウンザリします。

 もうこの人とはクチをききたくない。

 レジオネラ菌検出の老舗旅館前社長は

 正直にすべてを話しました。

 「源泉をそのまま使いたいし、

  塩素が嫌いだから入れたくなかった。

  ずっとお湯を出していたので

  入れ替わっていると思っていた。」

 「塩素一つをポンと入れたら、

  終りで簡単なことです。」

 「でも、入れたくなかった。」

 ニュースになり、

 マスコミが袋叩きにして自殺に追い込んでいる。

 映画館やパチンコの換気システムの考え方なら

 お湯も同じなような気がします。

 保健所のマニュアルでは

 湯を完全に抜いて、

 入れ替える必要があると、

 記載されているようです。

 その道でメシを食っているので

 指摘するまでもなく

 そんなことは知っているのです。

 自動換気の発想を取り入れただけ。



 インドネシアの元大統領夫人も

 自由に発言しています。
 
 思っていないことを話す事に
 
 うんざりしているのでしょう。

 それをいい年こいたマスコミの

 ご意見番がタテマエを言って

 批判しているとウンザリします。

 そんな私もAIには刺激を受けます。

 予想外のコメントが出てくる時があります。

 そこには変な忖度はありません。

 やたらと回りくどい権利関係や

 責任逃れの説明を繰り替える時が

 ありますが、

 AIに責任なんか取れないでしょう。

 製作者にも責任なんかを求めません。

 WINNY事件のようなことが

 AIで起こらないことを願います。