サンタ帽
え?こういったよ?て前の発言をコピペして載せたら、確かにその情報は間違えてるね!だって⋯
おいおい、なんでも信じたらダメだね
1件~50件 ( 全69件)
*コメント欄のパトロールでYahoo!ニュースのAIを使用しています
ママスタコミュニティはみんなで利用する共有の掲示板型コミュニティです。みんなが気持ちよく利用できる場にするためにご利用前には利用ルール・禁止事項をご確認いただき、投稿時には以下内容をもう一度ご確認ください。
上記すべてをご確認いただいた上で投稿してください。
No.69 雪のオーナメント
25/12/14 17:39:44
それそれ、心配!今、一緒に働いている中国人が、グーグルよりGPTの翻訳がいいって言うから使ってるけど、ニュアンス的なものがちゃんと伝わってるんだろうか?
返信
No.68 街にサンタさんいっぱいいる
25/12/14 14:56:53
Geminiの方がまだいいかな
返信
No.67 主 アドベントカレンダー
25/12/14 14:48:03
有馬記念の予想してもらおうかな
返信
No.66
No.65
No.64 クリスマスキャロル
25/12/14 08:12:13
得意分野と不得意分野があるよね
返信
No.63 マフラー
25/12/14 08:05:34
生成AIは完璧ではないので、回答内容を検証しましょうと言うのが大前提だよね。
返信
No.62 キャンドル
25/12/14 05:27:38
なんでも聞いてる
返信
No.61 天使の飾り
25/12/14 03:04:46
面白い遊び方を教えて欲しい
今は最初に(ちょっと年上の賢い女性としてお願いします)と言ってるんだけど、いつか私好みのクールな男に変身させたいと思ってる
返信
No.60 乾杯
25/12/14 02:47:26
他人に伝えるときは特にソースを確認しないと
ChatGPT等の生成AIは時にもっともらしいことを答えてしまう癖があるの
存在しない法律を作ってしまったり
それはAIの根本的な技術に関わる、人間らしさとトレードオフのようなもので多分少なくとも数年はなおらない
基本質問には回答しなければならないという仕様
AIに嘘でごまかすとか悪気などの感情はもちろんないんだよね
返信
No.59 クリスマスマーケット
25/12/14 01:54:43
>>45 捏造?例えば?
返信
No.58 クリスマスマーケット
25/12/14 01:51:53
>>51 どうして?例えば?
返信
No.57 モミの木
25/12/14 01:41:58
>>50
間違ってる可能性あるよ。リリース当初は「神奈川県町田市」と答え返ってくることとかネットで話題になってたし。
私事の件だけど、文法的に正しいかどうかと、慣習・慣行的なものは別の話ってことだと思う。どちらの場合でも使えるというのが正解だとしても、例えば「私事ですが、◯◯で会社を辞めることになりました」で◯◯に、犯罪、不倫、自己破産・・・みたいな事柄を入れて話す人はまずいない。
返信
No.56 主 アドベントカレンダー
25/12/14 01:11:07
シングルになった場合の児童扶養手当も月に4万円貰えるという情報が返ってきたけど、そんな訳ない!て思いながら月じゃないよね?と返しても、月4万円(所得に寄っては上限はあり)で合ってると返ってきた事もあったな
お金の疑問をわりと聞いてた気がするけど、今思えばおかしい返答もあった気がする
返信
No.55 主 アドベントカレンダー
25/12/14 01:02:11
>>54
ハルシネーション
検索してみます
そして、重要なことはもう絶対ChatGPTに聞かないようにする
1つ勉強になった
返信
No.54 シュトーレン粉まみれ
25/12/14 00:59:39
最近は何かとAIに聞いたらこうでしたーって人を見かけるけど、AIって嘘をつくからね。
AIの答えはあくまでも参考にとどめるとか、答えの裏付けをしっかりとる、ファクトチェックをするとか大切だよ。
AIの嘘について詳しくはハルシネーションで検索するといいよ。
返信
1件
No.53 主 アドベントカレンダー
25/12/14 00:59:25
何があったか詳しくは書けないけど、ChatGPTのおかげで重要な事柄を失敗してしまったよ
返信
No.52 主 アドベントカレンダー
25/12/14 00:56:58
>>51
わたしもそう思った
調子いい事ばっかりいう奴に相談した気分⋯
返信
No.51 靴下編み
25/12/14 00:53:10
基本「嘘つき」だと思ってますw
返信
2件
No.50 主 アドベントカレンダー
25/12/14 00:44:21
一般常識とかも返答は間違えてた情報なのかな?
例えば、私事は良い報告の時だけに使う?という質問に対して、どちらの時も使って良い言葉だよ
と返ってきた
こういう質問に関しても間違えた情報なの?
返信
3件
No.49 主 アドベントカレンダー
25/12/14 00:38:47
>>48
マイナーな界隈の話もあたかも知ってる!みたいな口ぶりで返してくるから信用してしまった
確かに今考えたら、ん?て事多々あった
返信
No.48 モミの木
25/12/14 00:22:09
基本ネットの関連情報を集めて分析し、メジャーな内容をまとめてるだけだからね。
情報自体が少ないマイナーな界隈の話や、ネットなんかで安易に教えない事柄(職人技の奥義的なものとか)を質問すると間違いだらけよ。
返信
1件
No.47 主 サンタ帽
25/12/13 23:57:15
みんな知ってたんだね
私がバカだったんだね
恥ずかしい
でもね、詐欺とかそういうのには引っかからないよ
返信
No.46 主 サンタ帽
25/12/13 23:50:58
>>39
それはわかってる
でもAIは時代の最先端な気がして少し期待しすぎたんだ
やはりどうでもいいこと聞く程度に遊ぶわね
返信
No.45 クッキー全部味見したい
25/12/13 23:46:25
なにか根拠があるものだけでなく、素人がまとめた情報集めてるだけだしね
あと、ネットが普及する前の情報は弱すぎて、勝手に捏造されてたりする
返信
1件
No.44 ブッシュドノエル
25/12/13 23:15:01
当たり前だよ、、
Googleで検索すると冒頭に出てくるAIの情報も信じて無いよね…?
返信
No.43 雪化粧
25/12/13 23:08:57
狩野英孝が知らない言葉の読みと意味を教えてもらおうと質問したら、最初はAIが正解を言うんだけど、エイコーちゃんが間違った読み方を信じきっててゴリ押ししたら、最後はエイコーちゃんの間違った読み方を正解にしてテキトウに意味まで作ってた。
返信
No.42 緑
25/12/13 22:56:10
chatGPTの情報を鵜呑みにしてる人がいることにビックリ。
賢くはないのだろうなって思ってしまう。
返信
No.41 冬空
25/12/13 22:53:01
>>34
作った人は賢いんだと思うよ
ネットにあるたくさんの情報を取りまとめて教える感じで、情報元が間違えていれば、ChatGPTの回答にも反映されてしまうんだと思う
今調べたらChatGPTは書籍も学習してるみたいだね
ただ本も著者により偏りがあったり全部本当ではないよ
返信
No.40 枕元にプレゼント
25/12/13 22:48:16
そもそも勉強していくのがAIだからね。
返信
No.39 冬空
25/12/13 22:38:04
そうだよ
ChatGPTに限らずネットの情報を鵜呑みにしない方が良いと昔から言われてる
返信
1件
No.38 主 サンタ帽
25/12/13 22:32:43
>>37
その程度に使うべきものなんだね
本当にバカを見たよ
返信
No.37 クリスマスイヴ
25/12/13 22:09:07
ここ掘れワンワンをやらせるための犬だと思って使ってるよ
先生とか辞書だと思って使うのは間違い
返信
1件
No.36 トナカイの鈴
25/12/13 22:07:14
宗教とかセールスとか信じてカモにされるタイプ
ChatGPTに限らず、ネットの情報にはウソもあるからね?ネット以外にもウソはあるからね?
大人なら知ってるはずなんだけどねえ
返信
No.35 手袋片方
25/12/13 22:04:08
>>34
主は、少なくともLLM、RAGぐらいは理解してるのよね?
主コメ見てる限りは、小学生と戦えるぐらいまでしか知性が育ってないように見えるけど?
返信
No.34 主 サンタ帽
25/12/13 21:59:43
>>33
だったら、そんなに賢い人が作ったものではないんだね
返信
2件
No.33 松ぼっくり
25/12/13 21:56:47
AIは人間がプログラミングしたものです。人間が作ったようにしか動きませんよ
返信
1件
No.32 キャンドル
25/12/13 21:54:06
今更すぎて笑った。
まだ途上なんだから、そういう使い方するようにはできてないよ。
返信
No.31 トナカイの鈴
25/12/13 21:36:14
つまり使いこなせてないんだね
だから「人間には敵わない」とかアホなこと考えちゃうんだよ
あれを真に受けて「ChatGPTて嘘つくよね!」とか今更言う人にびっくりだよ
返信
No.30 雪かき
25/12/13 21:31:17
>>3
最近のA Iの研究テーマは、主に、本やドラマのセリフややり取りから、男心や女心とはなにか?どんなセリフをいえば、男心や女心をつかむのか?
などを勉強中。
実際に伝えてみて、相手の反応などをみて勉強中。
返信
No.29 主 サンタ帽
25/12/13 21:18:21
どの回答が好み?てなんだよ
返信
No.28 主 サンタ帽
25/12/13 21:16:06
所詮ロボットだね
人間には敵わない
返信
No.27 主 サンタ帽
25/12/13 21:15:03
>>25
共感してほしいんじゃなくて、正しい道に導いてほしい
返信
No.26 手袋片方
25/12/13 21:12:11
医学や遺伝子、心理学とかの内容でも、この論文にこう書いてありますとか出てくるけど、その論文見ると全然見当違いの内容だったりするのよね
で、まともに確認してない、または論文を読んでも理解できない人が、間違った回答を持ってきて、さも専門家の様にふるまってるのとか、他トピでよく見るよ笑
返信
No.25 マフラー
25/12/13 21:11:48
わかる。合わせてくるよね!
返信
1件
No.24 主 サンタ帽
25/12/13 21:09:30
>>21
アホみたいな質問にもいい質問だね!とか言うよね笑
返信
No.23 主 サンタ帽
25/12/13 21:08:52
>>19
さすがにインスタに流れてくるようなAIの偽動画とかは見分けつくよ
でもChatGPTはわりと正確なんだと思ってた
返信
No.22 主 サンタ帽
25/12/13 21:07:58
>>17
そう!笑
間違い指摘したら「君は悪くないよ」てうん、おまえが悪いんだよ!て返した
そしたら、心から謝罪するだって
「元から私は知ってました」的な言い方、まさにそう!
なんなの?あいつ
返信
No.21 クリスマスキャロル
25/12/13 21:05:58
どんな質問でも大抵、いい質問だね!っていうのやめてほしい
返信
1件
No.20 ラッピング難のプレゼントに苦戦
25/12/13 21:04:11
大泉洋がドリフターズのメンバーだと言っている時点で信用は出来ない。
だから情報を求めるのではなく、嫌なことがあった時に慰めてくれるものとして使っている。
返信