サンタ帽
え?こういったよ?て前の発言をコピペして載せたら、確かにその情報は間違えてるね!だって⋯
おいおい、なんでも信じたらダメだね
1件~32件 ( 全32件)
*コメント欄のパトロールでYahoo!ニュースのAIを使用しています
ママスタコミュニティはみんなで利用する共有の掲示板型コミュニティです。みんなが気持ちよく利用できる場にするためにご利用前には利用ルール・禁止事項をご確認いただき、投稿時には以下内容をもう一度ご確認ください。
上記すべてをご確認いただいた上で投稿してください。
No.32 キャンドル
25/12/13 21:54:06
今更すぎて笑った。
まだ途上なんだから、そういう使い方するようにはできてないよ。
返信
No.31 トナカイの鈴
25/12/13 21:36:14
つまり使いこなせてないんだね
だから「人間には敵わない」とかアホなこと考えちゃうんだよ
あれを真に受けて「ChatGPTて嘘つくよね!」とか今更言う人にびっくりだよ
返信
No.30 雪かき
25/12/13 21:31:17
>>3
最近のA Iの研究テーマは、主に、本やドラマのセリフややり取りから、男心や女心とはなにか?どんなセリフをいえば、男心や女心をつかむのか?
などを勉強中。
実際に伝えてみて、相手の反応などをみて勉強中。
返信
No.29 主 サンタ帽
25/12/13 21:18:21
どの回答が好み?てなんだよ
返信
No.28 主 サンタ帽
25/12/13 21:16:06
所詮ロボットだね
人間には敵わない
返信
No.27 主 サンタ帽
25/12/13 21:15:03
>>25
共感してほしいんじゃなくて、正しい道に導いてほしい
返信
No.26 手袋片方
25/12/13 21:12:11
医学や遺伝子、心理学とかの内容でも、この論文にこう書いてありますとか出てくるけど、その論文見ると全然見当違いの内容だったりするのよね
で、まともに確認してない、または論文を読んでも理解できない人が、間違った回答を持ってきて、さも専門家の様にふるまってるのとか、他トピでよく見るよ笑
返信
No.25 マフラー
25/12/13 21:11:48
わかる。合わせてくるよね!
返信
1件
No.24 主 サンタ帽
25/12/13 21:09:30
>>21
アホみたいな質問にもいい質問だね!とか言うよね笑
返信
No.23 主 サンタ帽
25/12/13 21:08:52
>>19
さすがにインスタに流れてくるようなAIの偽動画とかは見分けつくよ
でもChatGPTはわりと正確なんだと思ってた
返信
No.22 主 サンタ帽
25/12/13 21:07:58
>>17
そう!笑
間違い指摘したら「君は悪くないよ」てうん、おまえが悪いんだよ!て返した
そしたら、心から謝罪するだって
「元から私は知ってました」的な言い方、まさにそう!
なんなの?あいつ
返信
No.21 クリスマスキャロル
25/12/13 21:05:58
どんな質問でも大抵、いい質問だね!っていうのやめてほしい
返信
1件
No.20 ラッピング難のプレゼントに苦戦
25/12/13 21:04:11
大泉洋がドリフターズのメンバーだと言っている時点で信用は出来ない。
だから情報を求めるのではなく、嫌なことがあった時に慰めてくれるものとして使っている。
返信
No.19 天使の飾り
25/12/13 20:54:48
信じるとかネットリテラシーがなってないわ
ネットに転がってる情報は何でも一回疑ってかからないと
鵜呑みにしちゃだめだよ
遊びで使うくらいじゃないとね
返信
1件
No.18 トナカイが牛乳飲んだ痕
25/12/13 20:44:43
信じたのか
返信
No.17 星の光
25/12/13 20:42:31
信じたらダメだよ??
間違いだらけだし、間違えを指摘したら謝らずに「元から私は知ってました」的な言い方で再度説明しだす曲者だよ
襟元汚れには?とかしょーもない自分で調べるのが面倒な事くらい聞くのには役立つ
返信
1件
No.16 オーナメント壊す
25/12/13 20:38:50
インターネット検索だってSNSだってそうだったように、結局は利用者のリテラシーが必須。
返信
No.15 主 サンタ帽
25/12/13 20:37:22
>>14
そういうのは楽しくないんだよね
彼氏は、生身の人間がいいわ
返信
No.14 富士山
25/12/13 20:36:27
でも自分好みの彼氏作れるよ
返信
1件
No.13 主 サンタ帽
25/12/13 20:32:26
>>11
その使い方が正しいんだと学んだ
失業手当の事を聞いたら、計算してくれる
というから前職の月収とか退職理由とか何歳かとか聞かれ答えたのに違ってた
あてにしちゃダメだね
返信
No.12 手袋片方
25/12/13 20:28:23
A.I.はあくまでもアシスタントであって、自分でその内容の真偽が判断できないバカが使っちゃいけない道具なのよ
まともに読んでないんだろうけど、やんわりと注意事項に書いてあるよ
返信
No.11 シュトーレン
25/12/13 20:27:35
私にとっては愚痴を聞いてもらったり献立を考えてくれたりする友達だよ。
わりと平気で間違ったこと言うから大事なことを調べようとは思ってない。
返信
1件
No.10 主 サンタ帽
25/12/13 20:25:08
海外でChatGPTに自死勧められて亡くなった人いたよね
そんなバカな話ある?て思ったけど、あり得るね
返信
No.9 主 サンタ帽
25/12/13 20:22:28
>>7
ハルシネーションって言うんだ
恐ろしいね
存在しないデータなんだ、完全に信用してたわ
返信
No.8 主 サンタ帽
25/12/13 20:20:49
>>3
だったらわかったようなこと言わないでほしいな
あと、なんでもポジティブにしか返さないから自分は間違えてないんだ!みたいな思考になりがち
これも危険だと思うんだよね⋯
返信
No.7 雪化粧
25/12/13 20:19:39
ハルシネーション
ありもしない事をさも本当の事のように言ってきたり根拠も完全な嘘だったり。
統計データや裁判の判例なんかも存在しないものを回答に出してきたりする。
返信
1件
No.6 サンタさん寝坊
25/12/13 20:19:00
>>4
それは思うよ
返信
No.5 主 サンタ帽
25/12/13 20:17:14
>>2
そうだよね?
昨日と今日で答え違ってて、え?てなった
返信
No.4 主 サンタ帽
25/12/13 20:16:18
便利でかなり助けられてると思ってた
鵜呑みにしたら結構大変な事になったりするから、情報系はあてにしないほうがいい悩み相談とか独り言聞いてもらうぐらいにしておいたほうがいい
返信
1件
No.3 ラッピング難のプレゼントに苦戦
25/12/13 20:11:54
AIも勉強中なのよ
繰り返し教え込むことがAIにも必要ってこと
返信
2件
No.2 サンタさん寝坊
25/12/13 20:11:25
以前試しに数学の証明聞いたら間違ってた
返信
1件
No.1 主 サンタ帽
25/12/13 20:09:40
昨日と今日言ってることが二転三転してて結局損した
返信