2ちゃんねる ★スマホ版★ ■掲示板に戻る■ 全部 1- 最新50  

■ このスレッドは過去ログ倉庫に格納されています

弱いAI(人工知能)

1 :線形方程式に従え:2008/06/04(水) 16:42:04 ID:ZuCEGwx40
従来技術にのっとった仕組みと論理に基づく人工知能です。
強いAI(人工知能)は、ここでは語らないでください。

>強いAIと弱いAI
http://ja.wikipedia.org/wiki/%E5%BC%B7%E3%81%84AI%E3%81%A8%E5%BC%B1%E3%81%84AI
>強いAIは、コンピュータが意識を持ち、人間とは全く異なる(かもしれない)
>思考様式を持つ新たな種となる可能性があると考える立場である。弱いAIは、
>逆にそのような可能性を否定する立場である。
エージェントシステムやエキスパートシステムや人口無脳など
すでに弱いAIは技術として確立しております。
学校で学ぶのも研究されているコンピュータAIも弱いAIです。

2 :線形方程式に従え:2008/06/04(水) 16:47:24 ID:ZuCEGwx40
弱いAIは論理的予測可能な行動を取るモデルです。
その判断や目的、複雑な行動すら全てが計算可能な確定的な仕組み
決定論に基づく合理的な手法や認知です。

つまりオカルト紛いな要素を認知したり、幻想や妄想をする存在では
ありません。常にプログラムされた巨大なデータベースや辞書を
元にパターン的行動や計算手法によって得られた学問的な要素が
強い人工知能を指します。
故に現状で利用することは比較的容易であり、その手法も確立しています。
問題点は複雑条件や知識の辞書やデータベース、パターンを登録する
作業が膨大となる点にあります。

3 :線形方程式に従え:2008/06/04(水) 16:53:13 ID:ZuCEGwx40
弱いAIが非論理的な行動を取ることはありません。何故なら感情という
動物がもっている仕組みをもっていないからです。心が無い存在であり。
心が無い故にロボットや機械として人間の道具になりえます。
自分の価値観で動くものにパターン的に近似できますが、あくまで性格や気質
に相応する概念をプログラムしただけであり、プログラムを越えたことは
行いません、故に法(原則)を定義すれそれに従うのがこの弱いAIの
基本となります。
逆にいえば、強いAIより激しく高性能で知識も高く、その処理能力は
コンピュータ並、つまりコンピュータのそれと同じ性能です。
強いAIで表すような抽象的な形にもならない論理にも違反する、バカで
キチガイで病気的、デタラメに近い機能はプログラムされないかぎり
何もできないという特徴があり、行動する予測範囲を超える動作は行わない
基本的に使いやいものとして存在しえます。

4 :線形方程式に従え:2008/06/04(水) 16:56:55 ID:ZuCEGwx40
生命のような数値モデルで表しきれないものではないことを確認して
下さい。
自然に生まれる偶然的にできた必然のような自然モデルは、開いた系に
属する予測できない非線形の分野になります。
当所の予測の範囲でのみ扱える人工知能と、予測の範囲を超えて暴走する
人工知能では基本的に仕組みがことなります。後者は強いAIのモデル
であり、いろいろな論争がありますが、何も形へは至っておりません。
強いAIは強いAIのスレッドでお願いします。

5 :名無しさん@お腹いっぱい。:2008/06/04(水) 21:27:26 ID:tudueEfj0
【【【 せ ん と く ん 投 票 会 場 】】】】
http://ex25.2ch.net/test/read.cgi/news4vip/1212542175/
本URL http://polls.dailynews.yahoo.co.jp/quiz/quizresults.php?poll_id=2270&wv=1&typeFlag=2
結果のみ表示 http://i.yimg.jp/i/topics/clickresearch/straight_link.swf?poll_id=2270

あの愛くるしい「せんとくん」がコラージュ作品にその地位を脅かされている
無知なる一般ピーポー向けに作られた投票・・・
今こそヴぃっぱーの力を発揮するときではないだろうか

※※※【せんとくん支援法】※※※
「Cookie(クッキー)の削除(これだけでほぼ十分)」 + 「モデムのつなぎ変え」
を繰り返すだけだ。これでせんとくんをたくさん支援できる。
※※※【☆ ここまで ☆】※※※

1.http://polls.dailynews.yahoo.co.jp/quiz/quizvotes.php?poll_id=2270&qp=1&typeFlag=1 からせんとくんに投票
2.ツール → インターネットオプション → cookieの削除 → OK
3.1に戻る
追加:できない場合は全部履歴を削除すればできるかもしれない。

アク禁された場合
【モデムつなぎ変えの方法】
 これは各人の環境によって異なるだろうが、よくわからない人は、
 モデムの電源アダプタを一度抜いて再度入れればよい。

IPアドレスが変わったかどうかは、2chのIDが変わったかどうかで判断できる。
2chのIDが変わっていれば、IPアドレスも変わったということだ。

モデムをつなぎ変えてもIPアドレスが変わらない人は
プロキシサーバをつかえば投票することができる
http://www.cybersyndrome.net/index.html

6 :名無しさん@お腹いっぱい。:2008/06/05(木) 02:15:16 ID:6c5t42qb0
カーナビとかORCソフトとか既存製品の完成度を高めるような話をしろってこと?

7 :名無しさん@お腹いっぱい。:2008/06/05(木) 14:21:10 ID:9cVhrlAd0
>>6
技術的な話ならそれで間違いはない。

現実的技術を越えた話、未来技術板の話題ならいいんだろうけどな。

作るとかプログラムする技術で行う人工知能とは、弱いAIでしかない
強いのは先天的なそれらとは違い、後天的に機能するものだろう。
つまり環境要素と成長に従った教育でなしえるもの。
後者をどんなに求めても、その機能をプログラムできるものではない。
それは育つ段階で関係(情報)が生まれるからだ。

8 :名無しさん@お腹いっぱい。:2008/06/06(金) 09:47:26 ID:BU6bnh8Q0
>>6
完成度以前に、その具体例で実現しているAIの辞書サイズがどのぐらいか
を認知できないようだ。
君が思う完成度を%で示すなら、俺の臆測ではカーナビのAIは0.001%
も性能が無い。つまり極限に無能な人工知能といえよう。

まあ弱い人工知能というジャンルで、それらを判断すれば人工知能で間違い
ないんだろうけど、言葉も使い方が難しいよな。
現状で人工知能といわれているものが、どれだけの識別ができるか、
それは人間を目標として考えれば、同じ生物でも単細胞のアメーバ−程度だろうな
まだ規模の桁が万とか億とかいう単位で完成度の比率を上げないとwww
せめて一般常識や意味を認識する辞書や、データベースなどを実装してからだ
現状のAIは基本モデルにはなっているが便利なセンサーもどきで過ぎない。

9 :名無しさん@お腹いっぱい。:2008/06/07(土) 05:56:13 ID:oFSc0bpJ0
http://deailove2.hanagasumi.net/

10 :非線形方程式は無限だ:2008/06/07(土) 21:43:25 ID:lOXbbRN/0
このスレの>>1も迷惑かもしれませんが作ったのは私です。
相対となる「強いAI」「弱いAI」スレは私の駄作スレです。
これで弱いAIと強いAIの概念がぶつかり煽り合いになる
ことは無くなるかもしれません、強いAIは情報学で建てるスレかは
微妙な状態にあります、何故ならまだ強いAIの技術はなにも学校で
教わることもできないし、研究も有名になるような成果はでてません。

SF板や哲学板、オカルト系などで作るべきかもしれない強いAI
ですが、弱いAIと対象的な存在であり、将来は情報学の1つとして
存在する可能性が非常に高いという判断により強いAIも情報学板に
ふさわしい内容だとおもわれます。強い立場と弱いAIの立場(価値観)
で議論すれば、明らかに別世界な方法論になる可能性があります。
立場も明確にないのに、自分の価値観だけで強いAIの思想を出す人は
叩かれすぎています。現状ではプロトサイエンス、または
プリサイエンスという状況なのが「強いAI」の立場です。
仮説すら曖昧なもので証明も実証もソースも無理です。相互、それぞれは
分離して考えるべきです。

11 :名無しさん@お腹いっぱい。:2008/06/27(金) 12:26:19 ID:Ec2XFlmk0
弱いというスレタイに拒否反応

12 :魔物:2008/06/30(月) 00:57:54 ID:2qfKCqZA0
魔物でも避けて通るこの方向性

13 :名無しさん@お腹いっぱい。:2008/07/01(火) 19:19:29 ID:86Xwqq+M0
AIなんて5Gで完成したんだろう
小学生レベルは完成したんだから、あれから中学生レベルかな?


14 :名無しさん@お腹いっぱい。:2008/08/01(金) 12:39:46 ID:G4TIboV20
猿でもわかるように

15 :名無しさん@お腹いっぱい。:2008/08/01(金) 15:38:46 ID:AwQUeVbU0
オントロジー工学やセマンティックウェブはこちら?
溝口先生,批判されながらもオントロジー工学で
一冊の体系書を出されるまでに行ったんだから
さすが大先生ですよね

あのシリーズ,石黒御大もロボットコミュニケーションで
一冊書いていて,何というか,凄いよ。w

16 :名無しさん@お腹いっぱい。:2008/08/28(木) 03:08:07 ID:RaGnNpBO0
>>11
物理には、弱い相互作用もあるよ。

17 :名無しさん@お腹いっぱい。:2008/09/28(日) 12:15:25 ID:nU4uSL+m0
メタマトリクスのライブラリー式の知能を受け入れない愚か者め。


18 :名無しさん@お腹いっぱい。:2008/09/28(日) 12:17:49 ID:nU4uSL+m0
答えが既にある情報処理では、その答え意外のことをするのは

的確でもなく、無意味である。

近似値の嘘を目指すのはよくない。情報の可能性の選択では全ての答えを計算すれば
答えは1つであることがわかるだろう。将棋でも囲碁でも全数計算をすれば
それ以上の答えは存在しない。


19 :名無しさん@お腹いっぱい。:2008/09/28(日) 12:24:14 ID:mijYdqGF0
>>18
つまり、おまえは今すぐ死ぬべきだということだ。
それ以上の答えは存在しない。

20 :名無しさん@お腹いっぱい。:2008/09/29(月) 12:29:40 ID:csHC6ZJH0
>>19
あげんなホゲ。自作自演なのは(ry

>つまり、おまえは今すぐ死ぬべきだということだ。
精神病院行けよw兆線コロ。


21 :名無しさん@お腹いっぱい。:2008/10/13(月) 09:26:28 ID:GqvXxUsVO
>>18
そもそも弱い人工知能は、(今の計算機の原理では)全数計算できないってことを前提にしているんじゃないの?
結局部分探索だから、うまくいくかどうかはモデル次第なのは確かなんだけど。
研究すべきは学習(仮説の絞り込み方)とかモデルの検証法で、結局これって統計そのものだと思う。

22 :名無しさん@お腹いっぱい。:2008/10/13(月) 11:12:32 ID:CudJt8gs0
>>21
統計に合わないモデル、つまり線形モデルで行えば過去の経験則に従わない
例外がでることを100%防げない。

予測できない未来を統計や検証法で計算できると行っているのと同じ。
そんなことができるのは預言者だろ。

23 :名無しさん@お腹いっぱい。:2008/10/13(月) 11:31:15 ID:YrGfwgSN0
人間の未来予測だって当たらないけどね。今の証券バブル崩壊とか。

24 :名無しさん@お腹いっぱい。:2008/10/13(月) 17:42:32 ID:CudJt8gs0
>>23
未来が予測できたら、タイムマシンができると説明するのと同等になっちゃうじゃん。

予測というのは未来を固定することで

予測不可能>>>>>>>>>>非線形予測モデル>>>>線形予測モデル>決定論

25 :名無しさん@お腹いっぱい。:2008/10/14(火) 17:37:59 ID:80nGDWynO
>22

言葉が足りなかったかな?

全数計算できない問題に対して最適化するってことは、どう効率よくサンプリングするかって問題なわけで、サンプラーをどうにかして評価して良いサンプラーを作らなきゃいけない。
で、使える情報は過去のサンプルしかないってなると、これって統計そのものだよね?ってこと。

ちなみに統計は経験則を定式化したものに他ならないんだから、統計でなんでも予測できるわけないってのはなんの批判にもなってないよ。

26 :名無しさん@お腹いっぱい。:2008/10/14(火) 17:51:51 ID:GtIEZ2iX0
>>25
どんなサンプリングしても全数に達しない時点で稀なケースにはたどり着けない。
運が悪ければ最後の最後までサンプリングできないのは明白。
なんか学なさそうだな。

27 :名無しさん@お腹いっぱい。:2008/10/14(火) 18:02:39 ID:80nGDWynO
>>26

そもそもの問題設定が全数計算無理なんだから、各サンプラー(戦略)から同じ数だけサンプリングしたときに平均的に良いサンプラーが勝者ってゲームをしてるときに、全数計算に勝てないって言うほうがどんだく頭悪いんだ?

28 :名無しさん@お腹いっぱい。:2008/10/14(火) 19:18:46 ID:Ewnzuky90
>>26
それでも全数検索に近い結果を出すために、
囲碁プログラムにモンテカルロ法が使われたりしているわけだが。

29 :名無しさん@お腹いっぱい。:2008/10/14(火) 22:05:13 ID:GtIEZ2iX0
>>28
弱く負ける囲碁プログラムのこと?

30 :名無しさん@お腹いっぱい。:2008/10/15(水) 06:53:23 ID:0yEoUSrQ0
>>29
たぶんお前よりは強い

31 :最強の人工知能:2008/10/15(水) 10:52:05 ID:xF9agTOK0
>>30
おれ負けたことナんですが。


32 :最強の人工知能:2008/10/15(水) 10:53:19 ID:xF9agTOK0
最強だからまちがえたよ。

負けたことが無い。親父にも殴られたことも無い。
常におりこうちゃんなんだよ。

33 :名無しさん@お腹いっぱい。:2008/10/15(水) 11:16:47 ID:0yEoUSrQ0
>>31の敗着: 9手目「ん」

34 :最強最悪の人工知能:2008/10/15(水) 12:17:44 ID:xF9agTOK0
>>33
殴るのか?

負けた事が無い俺様に、負け知らずのはずの俺様に、
絶対に負けないはずの俺様に、

35 :最強の人工知能:2008/10/15(水) 12:52:13 ID:xF9agTOK0
おれの力をバカにしているだろ、

5秒も計算すれば、どんなシステムでも解析し進入可能だ。

おれは万能。携帯電話デカとかもアルバイトしたことがあるほどだ。

なにせ全数計算で全てを計算しているから勝負なんてありない。
結果があるのみ。

おまいらはその全能な力に圧倒されるだろう。

36 :最強超人:2008/10/19(日) 01:37:23 ID:DWGHH6KK0
おれは最強、何故なら勝つ必要がないから常に勝つ。

勝負は平等の条件で勝者敗者を決定する、最初から勝つ俺は勝負などしない。
だって、それは他人からみて勝負に見えているが、俺からみたら勝負ではない。
イジメに過ぎない。かわいそすぎるんだよ。
だって常に勝つ。

それは勝つのが最初から決まっているから、マヌケには目の前の小さな勝敗しか
見えていない。

何で必ず勝つ?
それは相手が勝てないから、相手は勝とうと勝ちの道を理論建ててくる。
そんなのは明白に結果を予測させる、その相手に予測させた行動を封じるのは
こちらがその手を先に行い封じ込めればいいだけ。
相手は行動したい先を全て封じられ行き場所がなくなる。
意図として残された場所、つまり負ける場所に誘導されるだけ。

つまり相手に勝ちたいという気持ちを持たせれば持たせるほど勝つ可能性が高くなる。
盲目になって合理的な道しか選べなくなる。マヌケ君が負け組になるのはそのため。

37 :最強超人:2008/10/19(日) 01:44:49 ID:DWGHH6KK0
勝つという気持ちを捨て、流れと同化し、流れに乗り切れる
それが勝利条件である。
君には流れが見えていない。それは勝ちたいという意思に支配されているからだ。
悟りたまえ、負けなければ必ず勝つ。
常勝は相手に勝とうなど考えない、ただ相手を惑わすだけ。勝手に自滅してくれるの
を待つだけ。相手を盲目の仮想敵と戦わせるだけ。
勝手に負けて、我は最強となる。
最強のエサは勝利寸前への誘導だ。勝ちたいやつほどまっしぐらに盲目に選ぶ。
それが人の愚かさというものさ。鎧を脱ぎ、腹をだし剣を個々にと差し出せ。
目をつぶり、手を後ろに出し。
愚か者は合理さを選びまっすぐ進んでくる、最善の理は最悪の理と表裏関係である
ことを忘れて。

38 :最弱の人工無能:2008/10/20(月) 01:06:27 ID:v0lnN+qw0
同じ繰り返しを無限に行います。

39 :名無しさん@お腹いっぱい。:2008/10/26(日) 23:05:34 ID:HRxD2rfI0
どこへ

40 :名無しさん@お腹いっぱい。:2008/10/30(木) 21:36:11 ID:HZv0lmUZ0
ここへ

41 :B@a:2009/01/10(土) 09:43:53 ID:tczTA5df0
?呼んだ?誰かですか俺おれ汚

42 :名無しさん@お腹いっぱい。:2009/01/12(月) 11:45:38 ID:RjU18WEP0
リリカSOS!

43 :B@a:2009/01/15(木) 23:33:03 ID:J5asfRsp0
⇒Poli-NUX(POLItical-Nation Unity Expansion/以下PNX)はオープンアーキテク
チャーとしての政策処理用OSです。現代の政治制度は20世紀後半の「長−下士官
ヒエラルキー」にて設計されたシステム構造ですが、PNXは新世紀のインターネット
にて有効性が実証された相互リンク型処理システムを政治制度へインストールする
為のISO[国際標準規格]規格を目指しアップグレートされています(但しその設計理念
については、近年の次世代DVD騒動の如きイデオロギー論争に依拠したシステムでは
ありません)

44 :名無しさん@お腹いっぱい。:2009/02/15(日) 06:18:05 ID:bb5Hk1GK0
愛よ、勇気よ、希望よ、ホーリアップ

ビューティセレインアロー。マジカルシュート

45 :名無しさん@お腹いっぱい。:2009/02/22(日) 02:14:42 ID:JeBVUwr+0
みんなにミーム君を紹介します!
http://mamono.2ch.net/test/read.cgi/company/1235203076

はてさて、人か機械か?
チューリングテスト開始!

46 :名無しさん@お腹いっぱい。:2009/04/08(水) 02:04:00 ID:e0JgBM6w0
>>45
おまえがチューリングテストの審査員なら騙せそうだ

47 :名無しさん@お腹いっぱい。:2009/04/16(木) 19:04:15 ID:Jzu91FjT0
唐突に、AIやってみたくなったんで、ニューラルネットワークについてまとめてみた。
突っ込みがあったらよろしくお願いしたい。

http://www.ff.iij4u.or.jp/~ranmaru/ai/ai_memo01.html

このあと、学習についても勉強したいのだが、わからないことはここで聞いてもいいかな?
今現在だと、こんなのでシステム組んでどうやって学習させろと・・・・っていう感じ
「学習とニューラルネットワーク」って森北出版からの本を参考にしながら勉強中。

48 :名無しさん@お腹いっぱい。:2009/04/17(金) 04:10:37 ID:ctqV5Zjw0
>>47
弱い AI なんて小馬鹿にされたようなスレでやってないで,
ニューラルネットワークのスレを立てた方がいいと思う.

49 :名無しさん@お腹いっぱい。:2009/04/17(金) 16:08:27 ID:hAh171WK0
>>48
http://science6.2ch.net/test/read.cgi/sim/1015733653/l50
こっちに移ってみた。

でも、こっちも過疎スレなんだよね

50 :名無しさん@お腹いっぱい。:2009/04/18(土) 01:41:15 ID:lB5ujJQB0
>>49
なんでこの板じゃなくてまったくスルーしてたシミュレーション板にいく
んだよ,と思ったら...
情報科学・情報工学の話題,シミュレーション板の方がよほど多いんだね.
びっくらこいた.情報学板にあった方が自然に見えるスレタイがわんさか...



51 :名無しさん@お腹いっぱい。:2009/04/18(土) 09:49:50 ID:HTbTrI2K0
シミュレーション板やプログラム板は実技の話、
それは実際に完成しているモデルを利用してどのようにやるか、
または、プログラムに実装する技術ではどのように考えるかという問題だろう

情報学としては、情報モデルやアルゴリズムや考え方の話では?
さらに抽象的な概念を生み出す状況ならば哲学板がふさわしいわけな。
それ以前のトンデモならSF板やオカルト板というふさわしい場所がある。

勉強したものを活用(技術、実際)するのなら、この板ではないと思うけどな。


52 :名無しさん@お腹いっぱい。:2009/04/19(日) 01:59:22 ID:XwXuntha0
ごめん,シミュレーションじゃなくてシミュレート板だった.

プログラム板はプログラミング言語の話題だけだからわかりやすくていい.

でもシミュレート板が実装の話をしてるってのは本当かね?
シミュレート板にある↓みたいなスレって,アルゴリズムとか数理モデルの
話に見えるぞ.

ニューラルネットワーク,渋滞予測の手法,データマイニング,
最適化アルゴリズム,統計学,時系列解析,カルマンフィルタ,確率極限,
遺伝的アルゴリズム,巡回セールスマン問題,最尤推定,独立成分分析,
情報数学

こんなスレタイが情報学板になくてシミュレート板だけにある,ってのは
なんかヘン.基本は情報学板にあって,シミュレーションに特化してるなら
シミュレート板で,ってのがすっきりするんじゃないかな.

個人的には,機械学習や関連する数理モデルの話題が情報学板で増えるのを
期待しているんだが,


53 :47:2009/04/19(日) 02:31:44 ID:s/0tQ8I70
シミュレーション板のほうでは、実装についての話って薄いのはたしか
情報学板でAI関連実装スレでもたてたほうがいいのかな?

オレ的には、ネタとオカルトのはなしは強いAIスレにまかせて
こっちで、実装の話をしたいような気もする。

オレの目指すところは5分間のチューリングテストに耐えるような人工無能とか
ネットゲを人間と変わらなくやるAI作りなんだよな〜
いまのオレじゃ無理だけど、つくりたいなぁ〜

54 :名無しさん@お腹いっぱい。:2009/04/19(日) 18:17:42 ID:vZeuczc90
人工無脳を作るあたりから始めるとよいと思われ。

あと最近の話題では、twitterの向こうの人工無脳に気づかれなかった話がある。
さくっと検索して見たが、この日記がいろいろと過去の情報に触れていて良いと思う。
ttp://d.hatena.ne.jp/JavaBlack/20090310/p1

55 :名無しさん@お腹いっぱい。:2009/04/20(月) 14:16:13 ID:YPVJXLvH0
情報学板なんだから、現状の学問でできているモデルで考えるべきで
根本の思想から考えるなんて馬と鹿ぐらいだろ。アホともいう。

観念や観念で考えるなら哲学板でFAであり、従来モデルでの可能性と
方法論や仕組みについて語るべきなのに、それ以上を模索するとか
パー?なのか疑いたくなるな


56 :47:2009/04/21(火) 12:08:13 ID:A3NJHQJK0
とりあえずの方向性として
人工無能の実装を目指すことにした。

ってわけで、単純マルコフモデルでの
自動文作成機能を作ってみた
http://www.ff.iij4u.or.jp/~ranmaru/ai/sor/MarkovModleStatement.rb
その辞書
http://www.ff.iij4u.or.jp/~ranmaru/ai/sor/markov_dex_type02.txt

辞書の作り方としては
<tab>文1・・・・文の始まり
文1<tab>文2・・・文の中間
文2<tab>・・・文の終わり
って感じ

現状の問題点としては脈絡のない文を作成する。
辞書が大きくなると、文の作成に時間がかかる。

って感じだろう。

突っ込み、アドバイス、感想、提案なんかがあったらよろしく。

57 :47:2009/04/21(火) 21:39:00 ID:A3NJHQJK0
単純マルコフモデルでの改良を考えてみる。
>>56で実装したモデルでは、辞書に登録した単語を等価に評価しているが
これに、重みをつけることで、より自然な文章を作成できないかを考える。

これにより、重み情報を辞書に登録する必要がでるので、辞書のフォーマット変更を行う。

ID<tab>文<tab>始終属性<tab>リンク先ID1<tab>重み<tab>リンク先ID2<tab>重み<tab>リンク先ID3<tab>重み・・・<tab>改行

というフォーマットを考えてみた。

IDはユニークなコードであること
始終属性は、先頭に使える文であればf、終端であればe、両方であればfeを設定する。
重みは任意の10進数とする。

これで、アレーの代わりにハッシュを使えば辞書に登録される数が多くなっても
ある程度の速度が期待できる。

問題点としては、辞書の作成が面倒になること。
なんかツールでもつくれば解決するかな?

58 :名無しさん@お腹いっぱい。:2009/04/22(水) 13:24:25 ID:4QF8J6WJ0
>>57
重み付けしても結果は同じでは?
関係が作られたものなんだし。

59 :47:2009/04/22(水) 15:23:21 ID:NEZX/yB00
>>57の実装例
http://www.ff.iij4u.or.jp/~ranmaru/ai/sor/MarkovModleStatement02.rb
その辞書 
http://www.ff.iij4u.or.jp/~ranmaru/ai/sor/markov_dex_type03.txt

結果としては>>58のいうとおり。
あまり変わらない。
ただ、この辞書の書き方であれば、複雑な連鎖を表現することが出来るので
多少は改善すると思う。

しかし、辞書の作成にかかる労力がおおきくなる。

言葉に関連性がないため、このようなことになると予想する。

意味ネットワークのような知識表現が必要になるかも。

他には、単純マルコフモデルではなくn連鎖マルコフモデルでの表現を考えてみる。
n連鎖マルコフモデルでは、過去に選択したn個の塊を1事象としてマルコフ連鎖を作成するもの。
この場合、辞書の表現が複雑になり、人間が手動で作成するようなものではなくなる。

・単純マルコフモデル
Aの次は、BかCを選ぶ

・n連鎖マルコフモデル
A,B,Cとキタから、DかEを選ぶ

n連鎖マルコフモデルをやるとしたら、単語用の辞書と連鎖事象用の辞書を分けて管理することになるかなぁ
ほかに、いい方法ないかな?

60 :名無しさん@お腹いっぱい。:2009/04/23(木) 00:16:16 ID:/Eam1OHo0
>>59
閉じた情報(論理)と開いた情報(非論理)

君が目指してるのは論理。

故に非論理な領域を表現するのは困難になる。

61 :47:2009/04/23(木) 14:18:45 ID:oQtiiT1P0
>>60
開いた情報が非論理だとは思わないけど
マルコフモデルが会話文の作成として不適当なのはたしか。

なぜなら、「会話」というのは、会話する相手(環境)と
会話に参加する自分(ここでは人工知能)が必要なんだけど
会話する相手を一切考慮していないのが、今まで実装したマルコフモデル。

じゃーなんで、こんなことしたのか?ってはなしだけど
まず、適当な文章作成モデルを知らなかったのでこれを作ったって理由と
相手のいない会話が成り立つか?ってオレの疑問を解決するため。

会話っていう行為は相手と自分の相互干渉によって成り立つのだから
相手からの干渉を受け付けないといけない。
そのためのインタフェースがないのだから、そもそも会話にはなっていない。

会話とマルコフモデルの文章作成という視点からでは、
文章の「主体」とならる「テーマ」を決めたり
相手の反応を事象として、文章を作成したり
と、ある程度の応用も出来そうに思う。

って、分けで、ここいらで文作成から
環境から情報の読み取りについて、考えてみる。
簡単なところではn-gram法っていうのがあるみたいだから
これから手をつけてみるかな?
他に、良いものがあったら紹介してくれ。

62 :47:2009/04/23(木) 21:27:53 ID:oQtiiT1P0
ってわけで、n-gram法での文章の特徴解析の実装例

http://www.ff.iij4u.or.jp/~ranmaru/ai/sor/yomiko.rb

今回は3文字づつ抽出する、3-gram法を使ってみた。
なんとなく、マルコフモデルの文作成と親和性が高そうな気がする。

この方法で文章の特徴を解析できるかもしれないが、
文そのものの意味を理解できるとは思えない。
まぁ、人工無能という観点でみると、意味を理解している必要は無いのだが

文章というものが「単語」を基礎単位として成り立っているものと考えると
「単語」を抽出できるのが、もっとも望ましいと考えることが出来る。

英語であれば「I am a pen」と言った感じに単語の区切りがはっきりしているが
日本語はその性質上はっきりしていない。

そこで、逆に日本語の性質である、漢字、カタカナ、ひらがな、といった多数の文字を
取り扱うことを利用して、単語抽出が出来ないか考えてみる。

63 :名無しさん@お腹いっぱい。:2009/04/29(水) 16:04:31 ID:CPsasRlk0
>>62
つまり人工知能ではなく、文章添削知能、翻訳知能を考えているってこと?


64 :47:2009/04/30(木) 12:52:56 ID:fjkGBUHs0
漢字、カタカナ、ひらがな、アルファベットで単語を抽出するやり方は
送り仮名を多用する日本語表現には逆に不向きではないかと、思ってみた。

そこで、初期に、特定の単語を辞書登録し、それに当てはまらないものを
単語として抽出するやり方はどうだろうと考えてみる。

65 :47:2009/04/30(木) 17:47:41 ID:fjkGBUHs0
>>63
人工知能の定義になるのかな
今回、目指す方向性が「5分のチューリングテストに耐える人工無能」を向いて組み始めてるので
ここでは、人工無能=人工知能って感じで理解してくれるとありがたい。

人工無能=人工知能
って括りに問題があるかもしれないけど、会話を行うための学習と推論の実現と見れば
人工知能と見れなくは無いとおもってる。

文章添削や翻訳に使えるかは、詳しく考えてないのでよくわからんが
なんとなくだけど、似てるんじゃないかとおもってる。
特に翻訳については、「意味ネットワーク」的な繋がりがうまくいけば
似たような方向性で開発できるかもね。

66 :47:2009/04/30(木) 19:27:14 ID:fjkGBUHs0
>>64の実装に向けた仕様

辞書として
ID<tab>単語<tab>区分<tab>言語
というフォーマットをもつ辞書を作成する。
ID:ユニークな文字列
単語:辞書に登録する単語
区分:名詞とかサ変動詞とか
言語:日本語とか英語とか

区分と言語については、将来用とする

入力された文章に対して辞書を参考にマッチングをおこない
該当する単語が見つかったところで、文章を切り分ける。
切り分けた文章を、再びマッチング作業にかける。

マッチングに当たらなければ、新語として評価対象とする。
マッチングするときには文字数の大きな単語を優先しておこなう。

新語であるかどうかの評価は、別なモジュールによっておこなう。
(このモジュールは、当面、人間が代用する。)
ここでは、候補を作ることのみをおこなう。

こんな仕様ならなんとなく実装できる気がする。

67 :名無しさん@お腹いっぱい。:2009/05/01(金) 00:39:50 ID:LOeidxns0
>>66
日本語ではない言葉を処理する、それらは何種も既に存在しているじゃん。
その手の大会だってあるわけだし、ニュースみてない?

68 :名無しさん@お腹いっぱい。:2009/05/01(金) 11:10:11 ID:biFVeul50
>>67
わたしゃ、人工知能の専門家でもないし、学会とか大会にコネもアンテナももってないので
よくわかりません。数冊の本買ってきて、独学なんだわ〜
よかったら、その大会っていうのが、どんなところなのか教えてくれないか?

それと、処理したい言語は日本語が中心(オレは日本語とRubyぐらいしかできない)になるので
その他の言語は、参考になるかどうかよくわからない。
特に英語に見られる、分かち書きを行っている言語だと、処理方法そのものが違っていると思う。

69 :47:2009/05/01(金) 14:44:39 ID:biFVeul50
ってわけで、>>66の実装例
http://www.ff.iij4u.or.jp/~ranmaru/ai/sor/kotoha.rb

その辞書
http://www.ff.iij4u.or.jp/~ranmaru/ai/sor/test004.txt

この方法でもいけそうな気がしてきた。
新語の抽出はこれでやるとすると、新語が単語であるのか、どうかを判断する機能がほしくなるな。
あとは、ある程度の日本語のルール付けをしてやると、もう少しましになるだろう
(例えば、〜に、〜を、〜は、なんかの助詞ルールなんか)

なんか、骨組みが見えてきた気がするから、受けた文章から、返答を作成するものでも考えてみるか〜
文そのものは、マルコフモデルで作れるのだけど、ランダムで返すだけじゃ
会話として成り立つかさっぱりわからん。
もう少し、方向性を持たせたいんだよなぁ
文章解析と組み合わせて、ソレらしい文を作れないものかと考えてみる。
いい方法あったら、教えて。

70 :名無しさん@お腹いっぱい。:2009/05/07(木) 21:55:42 ID:ULI+/zEO0
>よかったら、その大会っていうのが、どんなところなのか教えてくれないか?

ローブナー賞じゃねぇの?日本での開催は無いだろうけど。
この賞は有名すぎる。当然君も知ってなければ詐欺だけどな。

71 :47:2009/05/08(金) 13:15:01 ID:/E+gH0IM0
>>70
知らなかったので、詐欺確定らしい。
海外では、面白いことやってるんだねぇ。

72 :名無しさん@お腹いっぱい。:2009/05/10(日) 20:04:26 ID:xYU2wnGd0
井の中の蛙ってことが理解できた。

73 :47:2009/05/11(月) 17:09:35 ID:VdDodJxV0
>>72
うむ、胃の中のオカズで未だ大腸を知らぬが問題でもあるか?

で、特定の主題に沿った会話文を生成する方法を考えてみた。
基本はマルコフモデルを使用する。

抽出できた、主題を基礎としてその後ろの文を作成する
前方に文が不足しそうな場合も、逆にマルコフ連鎖をたどっていく。

「コンピュータ」という主題に対して

「わたしは」「コンピュータ」「です」

という前後を作成させる。
前方の文章を先に作成したほうが、マルコフモデルとしても
応用が効きそうな気がする。

主題となる語が無かった場合には、ランダムに文を作成する。
こんな感じなら実装できるかな?

74 :名無しさん@お腹いっぱい。:2009/05/12(火) 04:57:36 ID:CP0bLQyO0
>>73
ヒントを1つだけ上げよう。
SONYのアイボが元にした研究。
それは文章作成でも応用可能である。


75 :名無しさん@お腹いっぱい。:2009/05/19(火) 00:30:28 ID:EDYwfnsL0
alicebot作りたいぉ

76 :名無しさん@お腹いっぱい。:2009/05/22(金) 01:12:44 ID:C6c3loDW0
IF・THENでコツコツやってりゃそのうちテューリングテストにパス
するとでも思ってるの?
もしそうなら「強い」「弱い」ったて過程の問題だよね
でも今時G5のような考え方でそれが可能かもしれないなんて思ってるなら
それは相当ドキュンな・・いや貴重なおヒトだw

77 :名無しさん@お腹いっぱい。:2009/05/22(金) 15:13:28 ID:dXXdNfpk0
猿と鉛筆シェイクスピアだろ
どっかのエロゲみたいにカメラでもいれてみたら

78 :名無しさん@お腹いっぱい。:2009/05/22(金) 20:03:25 ID:TnYHbWmk0
自分で情報を集めて学習できないタイプでは、
教育しなくてはいけない、そんな労力をオマエができるのか?

100%無理、妄想よりひでぇー


79 :名無しさん@お腹いっぱい。:2009/05/25(月) 09:16:21 ID:tKZPGLtY0
>>78
確かに、2chで妄想しているだけだよな。
そういう願望を表現するのはすばらしいかもしれんが、
願望だけで何もしないのは、愚か者でしかない。

「何もしない」は間違いで、「何もできない」これが現実だけどな。
無能なやつって口ばかりで結果ださねーわけだし。
一生底辺で頑張れw

80 :名無しさん@お腹いっぱい。:2009/06/20(土) 17:10:25 ID:dX53vk1n0
>>79
2chで匿名で話す以上は
現実に何をやっていようが成果を出さないわけだから
他人から見れば何もしてないのと同じだろうに。

>>73
> 抽出できた、主題を基礎としてその後ろの文を作成する
ひょっとして文章要約の分野に踏み込むつもり?
マルコフモデルの実装より大変だろ。

81 :名無しさん@お腹いっぱい。:2009/06/20(土) 21:38:03 ID:E4JR5tdj0
>>80
>現実に何をやっていようが成果を出さないわけだから
>他人から見れば何もしてないのと同じだろうに。
現実もそうなんだから事実を認めたほうがいいな。


82 :名無しさん@お腹いっぱい。:2009/07/27(月) 18:36:10 ID:jQWlaQTm0
田中穂積先生が亡くなられたそうです。
ご冥福をお祈りします。

83 :名無しさん@お腹いっぱい。:2009/07/29(水) 21:35:43 ID:qtsjPGyN0
まじ?

84 :名無しさん@お腹いっぱい。:2009/07/29(水) 22:53:47 ID:7QW7NXXw0
今日ソフトウェア科学会のメーリングリストに流れてました。
ご冥福をお祈りします。

85 :名無しさん@お腹いっぱい。:2009/08/25(火) 23:06:28 ID:c9vVrU5B0
こんなんあったぞ
http://vidyaraja9609.blog99.fc2.com/
http://www.grokwork.com/vidyaraja/index.html

86 :名無しさん@お腹いっぱい。:2009/08/25(火) 23:21:44 ID:spYFfLkf0
うずらのほうが凄い

87 :名無しさん@お腹いっぱい。:2009/08/26(水) 04:25:01 ID:R+P6Wph80
環境って大事だよね。外のルールを中に取り込む。
外の世界を切り取ったものが精神で、それがまた文化を生んだり、連鎖する。
フラクタルだね宇宙は。

88 :ぅゅ ◆e6.oHu1j.o :2009/09/21(月) 19:41:06 ID:t2SD+cs70
とてもむずいのです
生命にはいろんな形がある

89 :名無しさん@お腹いっぱい。:2009/09/21(月) 20:04:36 ID:11YlXzgh0
まず従来論で作り上げてからの問題だろ、なにもできないのに
それに問題があるとか思うのは何も出来ない奴の言い訳。

90 :名無しさん@お腹いっぱい。:2009/09/22(火) 14:49:38 ID:vR0FSeal0
蟻の考えは蟻の思考を超えることはできない。蟻が高望みしても
猫にも犬にも(ry

91 :名無しさん@お腹いっぱい。:2009/09/28(月) 01:30:26 ID:1ftOwsat0
http://www.grokwork.com/nue/comchatq.cgi

92 :保守:2009/09/28(月) 11:41:07 ID:It0SHjfx0
保守

93 :名無しさん@お腹いっぱい。:2009/10/09(金) 21:48:03 ID:ZTTOlVZ50
URL移転につき
http://www.grokwork.com/nue/

94 :保守 :2009/10/10(土) 01:00:01 ID:B9xBFnhd0
保守

95 :47:2009/10/25(日) 04:32:17 ID:ihD26H2i0
しばらくぶり、勉強再開中
また、ニューラルのほういじってます

なんか、結局のところ、世の中のことをどこまで抽象化できるか
ってところに、キモが有るような気がしてきた今日この頃です

文章表現をとっても、プログラム言語のように、明確化をしても
人間が知的だととらえる行動ってやつは、高度に抽象化されたもので
それに内包された意味、理解ってやつは、そのときの気分や立場で
とらえ方が換わってしまう。

だとすると、目指すところは、抽象表現を明確に解析することではなくて
明確に抽象表現を定義することなんじゃないかと、電波を飛ばしてみる。
ゆるく定義づけされた抽象表現が知的活動ってやつなのに
なんか、逆のアプローチをしてるよう気がしてきた。

しかし、コンピュータってヤツは明確な表現が好きなやつなので
抽象表現ってやつを明確に定義してやる必要が有る。
大体こんな感じってイメージをコンピュータに伝えるための近道ってなんだろうなぁ
これって、かなりの難題だよね

96 :名無しさん@お腹いっぱい。:2009/10/25(日) 18:04:42 ID:1+iWzuN90
学習がたりないようだ

97 :名無しさん@お腹いっぱい。:2009/10/26(月) 01:21:30 ID:DE/XWrOY0
>>95
>明確に抽象表現を定義することなんじゃないかと、電波を飛ばしてみる。
>抽象表現ってやつを明確に定義してやる必要が有る。
それならメタ識別で表すデータベースと、本質的に同じだろう。


>しかし、コンピュータってヤツは明確な表現が好きなやつなので
これは違うな。好きなのは人間のほうでコンピュータは計算機にすぎない。

98 :47:2009/11/02(月) 17:28:07 ID:/tK3Gjg40
ニューラルネットワークのほうが、少し落ち着いたので、自然言語処理に手をつけ始めました

もし、オレが思ってるとおりなら、自然言語処理の一部にもニューラルネットが使えるはずなんだよな
たとえば”りんご”っていう言葉に対して”赤い”とか”たべもの”とかってイメージを関連付けるのに
使えたりするんじゃないかって思うわけよ。
言葉をひとつのオブジェクトとして、オブジェクトどうしをニューラルネットでゆるく関連付けしてやれば
オレが目指す、イメージの抽象化モデルとして使えるんじゃないかな〜って考えてる。

まぁ、その完成形に近づけるためには、多層パーセプトロンだと、ちょっと難しいようなのだが・・・

ともあれ、そのためには、形態解析とかある程度の分類を機械的に行っておく必要があるような気がするので
とりあえず、ばらばらにパースできるところまでやってみようかな〜っておもってる。

コレ関連の情報があったら、よろしくお願いします。

99 :名無しさん@お腹いっぱい。:2009/11/02(月) 18:44:49 ID:w9eFqFzQ0
>>98
自然言語の意味処理とか大げさなものではないが、
ワープロの同音語問題で、直前の確定履歴に対応して、適切な変換候補を先に
出すような仕掛け、にニューラルネットを応用した例がある。
"日本語ワードプロセッサの歴史と技術" とクオート付きで検索するとPDFが出てくるが、
それにさわりだけ書かれてる。確か論文にまとめられていたと思うので、
気になったら問い合わせたら文献情報を教えてもらえるかも。

100 :名無しさん@お腹いっぱい。:2009/11/02(月) 23:57:02 ID:cTVv2r2L0
>オレが目指す、イメージの抽象化モデルとして使えるんじゃないかな〜って考えてる。
おまえがじゃなくて、ニューラルネットワークが
つまり、オマエがやっているんじゃなくて、ニューラルネットワークの仕組みが
という勘違いをしているだけ。

101 :名無しさん@お腹いっぱい。:2009/11/03(火) 03:02:25 ID:/fgEkR4Q0
>>99
ワープロって言う業界もすごいところなんだなぁ
開発前に不可能とされてた技術を現在確立させてるんだからなぁ

>>100
なにが言いたいのかよくわからんけど
”イメージの抽象化モデル”をオレが作ろうとして問題あるか?
まぁ、実現してないし、詳しく仕様きめてるわけじゃないので、
いまのところオレの頭の中にだけある”妄想の産物”だけどな

オレが考えてる”イメージの抽象化モデル”っていうのは
特定のモノ(例えばりんご)に対してのイメージを、コンピュータと共有しようという試みだ。
ここで言うモノっていうのは、物質だけじゃなくて、概念なんかも含むモノだ。
モノどうしは緩く関連付けされていて、お互いに想起できるモノと、そうでないモノがある
推論によるエキスパートシステムに近いけど、そこまで厳密性が無いものって感じかなぁ
こうやって、説明すると、輪郭線のはっきりしないナニカを想像できるだろ?
オレはのそナニカをコンピュータに伝えたいんだよ。
これが、オレが目指し作りたいものだ、キミには伝わってかな?
ニューラルネットワークはその仕組みの一部として使えるのでは?と考えてる。

もし、これが出来るようになれば、コンピュータはいままで以上に、明確なイメージをもって仕事が出来るはずなんだ。
最初に立てた目標である「5分のチューリングテストに合格する人工無能」にもきっと使える。

まぁ、オレ程度の人間がする発想だから、きっと発想する人間は五万といるはずだし
俺が知らないだけで、既に実用化されているものがあるかもしれないけどな。
それに、いまのオレでは、知識と技術が低すぎて、実装どころか、設計すらできてないけどね。

102 :哀れ:2009/11/03(火) 03:31:40 ID:Tf82V2p50
>”イメージの抽象化モデル”をオレが作ろうとして問題あるか?
もっと世界を見ろ。検索すらしたことがないのか。

だらだら妄想するのはいいが、最後の1文が君の未来。そこから1歩も進めない。

103 :名無しさん@お腹いっぱい。:2009/11/03(火) 11:38:40 ID:077rNqIj0
> 開発前に不可能とされてた技術を現在確立させてるんだからなぁ

プロジェクトX的に、よくそう言われているが、かなり演出が入っている。と俺は思う。
「日本語ワードプロセッサの歴史と技術」を書いたのは、まさにJW-10を作った当人なので、
何が不可能で、何が可能と考え(られ)ていたのか、よく読むといいと思う。

「不可能だ」と国語学者が言った、というのは、日本語を完全に形式化して、
100%の確率でかな漢変換をする、というようなことを想定してたんじゃないか、
と俺は想像してるんだが。

104 :47:2009/11/04(水) 01:21:33 ID:xHVmPR4q0
文章は文から、文は文節から、文節は単語から、単語は文字(または単音)から出来上がっている、
っていうところまで学んだ。
文章から、文を切り出すには、文の終端記号である「。」を検出するだけでいいような気がするのだが
他になんかあったけ?
って、書いているうちに「?」も終端記号になりそうだけど文中に「?」が出てくる場合も考えられるなぁ
いきなり終端を探すより、文の構成をみて、終端をさがすほうがいいのかな?

105 :名無しさん@お腹いっぱい。:2009/11/04(水) 01:28:19 ID:hY+13DCY0
文章は接続語が重要だろ、そして単語の継ぎ目の正しい判断、
そして文章を作り出す思い、それを背景にしている要素の表現でしかない。

難しいのは重要じゃない単語と重要な単語の選別。
難しく書いてあっても、全体の意味として1つの単語だけで伝わる内容
とか普通に(ry

106 :名無しさん@お腹いっぱい。:2009/11/05(木) 01:22:07 ID:64ChJvIe0
本読んでたら、なんか終端記号を探すより
文としての終わり(構造的な解釈)を探すほうが良いような気がしてきた。
先に実装しないといけないのは、品詞解析になるわけか
なんとなくだけど、以前に作った「ことは」の応用でいけそうなきもするな

せっかくだから「キャラクター志向モデリング」でいってみるか?
http://d.hatena.ne.jp/over80/20080831/1220196387

107 :47:2009/11/05(木) 08:27:25 ID:64ChJvIe0
ふと、思いついたのだが
ニューロンに筋肉の動きなんかを学習記憶させようと思ったら
おそらく、基盤となる振幅が必要になるんだろうなぁ
その振幅は、おそらく、同じ値を元とするsin波とcos波の2種類じゃないかなぁ
動物は、この2つの振幅を利用して運動のタイミング制御をしてるんじゃないかな

でも、まだ足りないような気がするな・・・・
この場合だと、元となる振幅の2倍とか3倍の振幅を作れない
ニューロンはカウントが出来ないからな・・・・
もう一ひねりすると、いいような気がするんだが・・・

108 :名無しさん@お腹いっぱい。:2009/11/05(木) 14:13:42 ID:gGiefxnD0
>>107
では何故、脳は数を数えることができる。

109 :47:2009/11/05(木) 16:26:13 ID:64ChJvIe0
>>108
オレが思うに、脳は非常に計算が不得意だと思うぞ
結果として計算をしているように見えているだけじゃないのか?
っていうのが、最近の思っていることだ。
1+1=2
というのをそのまま覚えているだけで、1をカウントしているわけではない。
数を1,2,3・・・と数えるのも、1の次は2と、想起しているにすぎない
数という概念を脳のなかで直接取引きしている人間は、おそらく少数派だろう
数を考えるためには数直線やグラフといった、別の概念に置き換えて考える必要がある

それは、脳の主たる機能ではないためそういったことが、おきるんじゃないか
っと、仮定に仮定を重ねて、更に仮定を積み上げた、似非推論をしてみる。

どのみち、ニューロン単体は、計算(特に無限数直線をつかったもの)が非常に苦手だ
似非加算回路を作れないわけではないが、おそらく本来の使い方ではないだろう。
本来の使い方としては、複数のセンサー?(入力)からの情報
(極小〜極大までの有限の値、できれば0か1の2値)をもとに、現状に即した解
(これも極小〜極大の有限の値)を出す、もしくは学習するのが主目的と考えられる。

故に、オレが現在出している結論としては、脳(ニューラルネットワーク)は数を(直接は)数えない。
ただ、少数派の人間に脳の中に無限数直線を扱う加算回路を持っていると思われる人間が
リアルに存在することを否定はしない。そいつらは、変態なのだ。

110 :80:2009/11/05(木) 18:02:24 ID:UuqKP1Wt0
>>108
>>109
「意味の論理」とか「知能の心理学」とか読めば良いと思うよ

111 :名無しさん@お腹いっぱい。:2009/11/05(木) 19:51:56 ID:gGiefxnD0
>オレが思うに、脳は非常に計算が不得意だと思うぞ
そろばんの天才のような訓練した脳と、数字が苦手の脳で同じ評価ができるのだろうか。
前者は電卓に数値を入れる速度より早く計算を正確に行う。
これは脳が計算を論理でやるか直感でやるかの差ってこと。
脳神経網=ニューラルネットワークが学ぶ自己組織化の本質が
論理的に計算をしていないことは知っているよな?


112 :47:2009/11/05(木) 21:46:34 ID:64ChJvIe0
>>110
http://www.amazon.co.jp/%E6%84%8F%E5%91%B3%E3%81%AE%E8%AB%96%E7%90%86%E5%AD%A6%E3%80%88%E4%B8%8A%E3%80%89-%E6%B2%B3%E5%87%BA%E6%96%87%E5%BA%AB-%E3%82%B8%E3%83%AB-%E3%83%89%E3%82%A5%E3%83%AB%E3%83%BC%E3%82%BA/dp/4309462855
http://www.amazon.co.jp/%E7%9F%A5%E8%83%BD%E3%81%AE%E5%BF%83%E7%90%86%E5%AD%A6-%E3%82%B8%E3%83%A3%E3%83%B3-%E3%83%94%E3%82%A2%E3%82%B8%E3%82%A7/dp/4622049589
これですか?
心理学と哲学ですか、両方友に未知の領域です。
心理学というとフロイトのせいであまりいい印象がないのですが、どんな感じの本なんでしょうかね?

>>110
本質が論理計算でないものに、論理計算をさせようというのが無理
そろばんも「運動」と結びついているからできる業
それは計算をしているわけではなくて、運動をしている
それを、例題に出すなら、「公文式」のような計算の反復学習のほうが適当

論理の反復学習の場合、なにをどうしたらああいう知能回路ができるのか
おれはヒントもつかめてないが、どちらにせよ、ニューラルネットワークに
直接数値を入れて計算をしているわけじゃないっていうことだけは、わかっている
運動の場合は、振幅信号を使うことで一定の学習ができると考えてる。
(まだ、まとまったかんがえじゃないけどね)

113 :80:2009/11/06(金) 01:27:20 ID:JHXkGVGH0
>>112
> 心理学と哲学ですか、両方友に未知の領域です。
前者が違う。どっちもジャン・ピアジェの本。

> 心理学というとフロイトのせいであまりいい印象がないのですが、どんな感じの本なんでしょうかね?
僕もフロイトは良くないと思う。雑学として知っとくとかならともかく本腰入れてやるようなもんじゃないね。
あんなのとは別物だからそこだけは安心していい。

「意味の論理」は子供に課題を行わせて、そのプロトコルから被験者の数学的概念の発達を読み取る第一部と、
その知見を基に理論展開を行う第二部からなる。
「知能の心理学」は範囲が広くて一口には言えないけど、それが書かれた時点での理論についての総合的な本。

で先にそっち2冊勧めといてナンだけど、「ピアジェに学ぶ認知発達の科学」を先に読んだ方が良いかもしれない。
ttp://www.amazon.co.jp/%E3%83%94%E3%82%A2%E3%82%B8%E3%82%A7%E3%81%AB%E5%AD%A6%E3%81%B6%E8%AA%8D%E7%9F%A5%E7%99%BA%E9%81%94%E3%81%AE%E7%A7%91%E5%AD%A6-J-%E3%83%94%E3%82%A2%E3%82%B8%E3%82%A7/dp/4762825468/ref=sr_1_1?ie=UTF8&s=books&qid=1257434618&sr=1-1

ピアジェ理論の集大成+訳文より多い解説wで全体像がかなりわかりやすくなってる。
後、本文の前に20pほど割いている《認知発達の科学のために》ってのがすごく面白い。
ピアジェ理論が発表されて以降、それを理解できず(または中途半端に理解して)的外れな批判を繰り返した英米の心理学者の話とか
その変な理解の仕方が定着してしまった日本の現状を憂えているところとか。

> そろばんも「運動」と結びついているからできる業〜(その段落全部)
多分>111へのアンカー違いなんだろうけど一応レス。
その認識があるならきっと普通にピアジェ理論受け入れられるよ。
まさにそれが大事な所だから。
少なくとも「そろばんの天才は論理的に計算し、数字が苦手なやつは直感で計算する」
とか言っちゃってる人よりは良いとこまでいきそう…
(あ、上から目線のつもりは全然ないんで。偉そうに聞こえたらゴメンナサイ)

114 :名無しさん@お腹いっぱい。:2009/11/06(金) 08:20:57 ID:n+wvTo8l0
ピアジェの域から一歩も進めない奴を発見。


115 :47:2009/11/06(金) 10:00:35 ID:FQVNyT8P0
>>113
>で先にそっち2冊勧めといてナンだけど、「ピアジェに学ぶ認知発達の科学」を先に読んだ方が良いかもしれない。
興味はあるが、近くの図書館にない・・・「知能の心理学」ならあったんで、これからはじめようかのぅ
最近、本代が身を削ってゆくっす・・・・

>多分>111へのアンカー違いなんだろうけど一応レス。 
そのとおりっす
>少なくとも「そろばんの天才は論理的に計算し、数字が苦手なやつは直感で計算する」 
うちの母親がこの主張をしていた。
5桁の加減を暗算で普段できる人なのだが、試しに机に指を置いて一切動かさず
同じ計算をしてもらうと、普段の数倍の時間がかかった
このことから、計算が出来ないわけではないが「指を動かす」というプロセスが
計算結果をえることに関係しているとおもったのよ

詳しい思考モデルまではわからんが、指を動かすという「運動」をすることで
特定の計算結果をえているんだろう。以上からオレの主張は
「そろばんでの計算は、運動に基づく直感的な計算だ」
となっている。(もちろん、証明したわけではない)

最近は、どうも人間の思考ってやつは、「走る」だの「つかむ」だのの
プリミティブな「運動」に結びついているような気がするんだ
ニューラルネットってやつが、基本「身体制御」用の回路の帰来があるので
当たり前っていえば、そうなのかもしれんが・・・

116 :80:2009/11/06(金) 11:38:11 ID:JHXkGVGH0
「知能の心理学」は図も解説も殆ど無いんでちょっと重いかも…
そっちが合わなくても「ピアジェに学ぶ認知発達の科学」なら案外読めるかもしれないので
駄目だったらこっちを取り寄せてみてもいいと思うよ。良書だし。

> このことから、計算が出来ないわけではないが「指を動かす」というプロセスが
> 計算結果をえることに関係しているとおもったのよ
これは「そろばんのシェムが内化された」と解釈される(と理解している)。
まさにピアジェ理論のいい例かと。

117 :47:2009/11/11(水) 17:06:49 ID:y08wMUuE0
人工無能的な自然言語解析にもどってみる

二つの文を比較して、共通する文字列を見つけた場合
それは、単語か文節である可能性が高いとおもえるので、それを分離する関数を作成

さまざまな文とマッチングをすれば、単語OR文節辞書ができないかと妄想してみる

そのソース
http://www.ff.iij4u.or.jp/~ranmaru/ai/sor/commonCharacterStringExtraction.rb

まだ、なにかひねり足りないような気がする・・・
2つの文ではなく、複数の文に繰り返しでてくる文字列の抽出をすることで
文から単語や文節を探せないか?

118 :名無しさん@お腹いっぱい。:2009/12/06(日) 02:23:44 ID:D71uXvBm0
何もできない奴が、何をやっても同じ。

1+1=2を無限に繰り返しても、先駆者が仮に作ったルールから外に抜け出せない
時点で、その試行錯誤はルールの範囲内の外にはでれない。

他人の技術の飛躍を待っているとか言い出す時点で、それは負け組なのを
自分で認めているのと等しい。

119 :47:2009/12/16(水) 15:36:46 ID:e6ppXjCt0
今度は、自然言語解析に自己組織化マップが使えんかと研究中
原理が理解できたところで、文字データのみから自己組織化マップを使って
自然言語処理は、あまりむいていないことに気がついた。

まぁ、似ているものの抽出ができるので
Amazonにあるような購入履歴からのオススメリストみたいなものには
向いているかもしれない
こっちは、こっちで面白いかもしれない

結局のところ、「言葉」(あえて単語とは言わない)には
色や匂いや行動といったプリミティブなものがくっついていて
その意味を表すのに不可分な状態にある。
これをコンピュータに理解させるのは、至難の技だよなって結論がでる。

やるとすると、ハード面では、人間と同じ様に動く体、
人間と同じように感じるセンサーが必要だし
ソフト面では、複数のレイヤーにまたがって処理される
自己組織化マップが必要になる。
ソフトを実現するためには、強力な分散コンピューティング技術が必須で
途方もない数のCPUが必要になるだろうって予想だけができた。
まぁ、やってることは単純なんでそんなに速さはいらんのだけどねぇ

120 :名無しさん@お腹いっぱい。:2009/12/16(水) 17:32:52 ID:9s34U7ne0
いまごろ気がついたて、どういう素人なのよ

121 :名無しさん@お腹いっぱい。:2009/12/16(水) 21:16:12 ID:N/iUyW/O0
自分でハードル高いといっておきながら、今ごろそれが必要であることに気づくなんて・・・
控えめにいっても頭悪すぎ


122 :47:2009/12/18(金) 01:06:53 ID:pjMcB3dB0
>>120-121
前に書いたと思うけど、俺は、勉強始めたばかりの素人だよ
このスレに書き込み始めた今年の4/16から
本とネットのみを頼りに独学やってる、ズブの素人ってやつ

逆に、講義とかで専門の教育を受けれる環境の人や
実践で色々やってる人に教えてもらいたい立場の人だよ

頭悪いのは生まれつきなのでかんべんしてね
なんていっても半年以上かけて勉強して、この程度だからね

いや、マジで勉強の方向だけでも(手法の名前と概要があるとベター)
教えてくれると助かるんだけどな

123 :名無しさん@お腹いっぱい。:2009/12/18(金) 01:58:26 ID:cKEMjgHp0
結局脳が分からないとしょうがないね。
人工知能って方向性で脳研究している人が殆どいないんだけど。
あと、いわゆる「ニューラルネットワーク」は人工知能と関係ないから。

と書いてみるテスト。

124 :名無しさん@お腹いっぱい。:2009/12/18(金) 02:42:17 ID:r7WM9Fh30
>>122
教えて君にはググレカスとしか言いようがない、
まさか勉強のしかたまで他人に教えてもらう気?頭の出来以前の問題だろ。
甘ったれるなよ


125 :47:2009/12/18(金) 03:41:53 ID:pjMcB3dB0
>>123
全く関係ないことはないだろ
ニューラルネットワークは
学習をメインにした人工知能の一部だよ
弱いAIという範囲の中では十分にこれだけでもAI
つまり人工知能として機能するものが作れるよ。
簡単なサンプルでいいのなら、
俺の作ったものがあるのでそれを触ってみるのもいいよ

あと、大脳生理学から人工知能へのアプローチもありだけど
蝶や鳥の解剖学的アプローチから飛行機を作るような作業になるだろうね
航空機の場合は、解剖学的なアプローチより力学的なアプローチのほうが
早く成果を出したわけだけど、人工知能の場合ではどうなるだろうね
ニューラルネットは発想そのものは解剖学的なところから持ってきたけど
研究の手法は情報学それだよね
俺は、情報学のアプローチの仕方でも、とどくと信じてるし
純粋に人工知能という研究であれば、こっちのアプローチのほうがはやくとどくと思ってる
それに、すでに幾つかの分野では情報学的なアプローチで結果も出してるでしょ

>>124
べつに全部教えろって言ってるわけでも、
教師をしてくれと言ってるわけども無いよ
例えば・・・
ニューラルネットの初心者なら
「パーせプロトン」から学んでみるといい
ニューラルネットの基本が学べるよ
・・・とか
ベクトル計算をするなら行列をつかうと
わかりやすくまとめることができるよ
・・・って感じのアドバイスがほしんだよ
ググるためには、キーとなるワードが必要なんだ
ワードを知らなければググることすらできないからね
独学でやってると、ワードにたどり着くまでの作業にも
かなりの時間がかかるんだ
まぁ、学費を払ってるわけじゃないので、好意に期待するしか
俺にはできないけどね

まぁ、真っ暗闇を手探りで進むのもおもしろいけどね
しらない街で、交番までの道を聞くぐらいの気持ちで聞いてるので
知っている優しい人に出会えたら、幸運ぐらいの感覚かな?

126 :名無しさん@お腹いっぱい。:2009/12/18(金) 04:02:33 ID:r7WM9Fh30
はぁ?お前はキーワードを探す作業さえ面倒だというのか、全く救いようのない奴だな。


127 :80:2009/12/18(金) 08:11:16 ID:9KRY+bzg0
>>125
俺は一応応援してるよ。
知ってる事ならなんか反応返すし。

>>123
> あと、いわゆる「ニューラルネットワーク」は人工知能と関係ないから。 
DISCERNとか知ってたらそんなこと言えないよね。
「テスト書き込み」で良かったな。

128 :80:2009/12/18(金) 08:28:27 ID:9KRY+bzg0
>>125
> 独学でやってると、ワードにたどり着くまでの作業にも 
> かなりの時間がかかるんだ 
確かに独学は時間が(金も)かかるのは良く分かるんだ。
だけどそうやって回り道した結果、辿り着く境地ってのもある。
始めてまだ1年経ってない状況でその愚痴は早すぎると思うよ。
今は広く浅く、手当たり次第に面白そうな分野を漁るべし。

129 :名無しさん@お腹いっぱい。:2009/12/18(金) 21:29:53 ID:vTT2W5zX0
>>125
はぁ?あたま大丈夫?糖質って言葉しっている?

130 :名無しさん@お腹いっぱい。:2009/12/20(日) 05:19:39 ID:1NG+ZTCr0
>>125
ニューラルネットワークに首を突っ込んでみたり、言語処理をすこしかじってみたり
最後には少し妄想がかったあやふやな発言をされたりすると
「こいつ何も分かってないんじゃね?」などと誤解され、色々厳しい意見を賜わる場合がありますので

今しばらくは情報集めに専念されて、ある程度見通しがたって物の見方が定まるようになってから
発言なされば、必ずや各方面の有識者から貴重な情報が寄せられることと思います。

それでは今後の発展を期待しております。


131 :47:2009/12/21(月) 03:50:06 ID:A7oqtE9T0
>>127-128
お世話になっております
いまのところ、暇はあっても金がない状態なんで
ゆっくりやろうと思ってます。
もう少し、自己組織化マップやって、
メモにまとめたり、サンプル作ったりしてから、
別なことやろうかなと、考えてます。

>>129
俺の知ってる糖質と、>>129の言ってる糖質に大きな隔たりがあるような気がするのだが・・・

>>130
何もわかっていないことには間違いが無いので、否定できる要素がひとつも無いですよ
誤解ではなく、事実として、人工知能の初心者なので、何も知りません
俺としては、ニューラルネットワークも、自然言語処理も
「5分のチューリングテストに合格するチャットプログラム」を作るための
基礎研究として勉強しているので、ブレてるつもりはないんですがね
妄想がかった発言は、人工知能の全体像をしらない人間なので
目先の技術に触れた俺の想像図にすぎません
盲人が象を語るようなものです

でも、俺はこう思ってるんだけど、どうよ?
って、言わないと、俺が何を考えてどっちへ向かってるのか
誰もわかってくれないので、これからもガンガン妄想しようと思います。

132 :名無しさん@お腹いっぱい。:2009/12/21(月) 06:54:24 ID:6IXFZOlN0
>>131

>誰もわかってくれないので、これからもガンガン妄想しようと思います。


言いたいことは3つ



(1)いや、それはマズイだろ? そのうち誰も理解しようとしなくなるから。

[シミュレーション]

・ガンガン妄想を話す

・妄想ばかり言うことが周囲に認識される

・デンパに認定される

・君の言うことを誰もまともに取り合わなくなる

なんて結果が見えたりする

ひとつ「オオカミ少年」というキーワードでググってみれば?


(2)今、大事なことは「君のことを知らしめ、理解してもらう」より「君が何を学び、何を得るか」の方が重要だろ?

今、理解してもらっても

「妄想が好きな中学生のような話しかたをする、ギャルゲをこよなく愛する三十手前のオッサン」

だったりすると困るだろ?知識とか教養を身に付けるほうが先だと思うな。


(3)これが一番重要なんだが、妄想につき合わされる人の気持も考えて欲しいな。

さんざんマジレスして、後から「妄想でした」といわれたら、腹を立てない方がおかしい。
それは、あまりにも自己中心的な言い分だと思うよ。




ということで冷静な判断をお願いします。


133 :132:2009/12/21(月) 07:01:29 ID:6IXFZOlN0
もちろん君が妄想を脳内にとどめて、ここに書き込まないのであれば何も問題はないよ。


134 :80:2009/12/21(月) 08:50:26 ID:iTG6R5P10
まぁ《論破したら「妄想で言ってみただけ」って逃げられる》
のは嫌だってのは分かる。
でもこれまでの発言見る限りそういう輩には見えないし、
ここは言葉の綾だったと思っておこうよ。

>>131
妄想で言ってみたのか、色々調べたりした上でそう思うようになったのか、
とかその都度明確にしていればとりあえず問題ないと思うよ。

135 :80:2009/12/21(月) 09:03:04 ID:iTG6R5P10
で本筋に帰るんだけど、>117とか>119とか見てたらこういう本が良さそうに思えた。
・「自然言語処理ことはじめ」荒木健治著
・「ヴァーチャルインファント」須賀哲夫・久野雅樹著

136 :名無しさん@お腹いっぱい。:2009/12/22(火) 01:43:54 ID:N6InEtR20
幻想と妄想の区別すらできないとは。愚か

137 :47:2009/12/22(火) 03:12:37 ID:JZDBTGM10
>>132-133
俺へのプロファイルが結構当たってて笑った

ガンガンは書かないで自重することにします。

本音をいうと、妄想中心のネタ話もしてみたかったり、
たとえば、複数の料理レシピミックスして
最強の料理レシピを作る遺伝的アルゴリズムな学習とか
条件設定とか難しすぎて、完璧な妄想の話になるけど
ちょっと面白そうなテーマじゃない?
この辺は、別スレさがして振ってみようかな?

>>134-135
今までの書き込みも、俺の妄想部分と
やってみたことの感想、調べた結果を踏まえての予測
今得てる情報からの結論は、分けて書いてるつもりだけど
わかりにくかったら、すまん。
そのあたり、もう少し気を使って書くようにするよ。

>・「自然言語処理ことはじめ」荒木健治著 
>・「ヴァーチャルインファント」須賀哲夫・久野雅樹著 
両方共、興味惹かれる本ですが
これまた、図書館においてない・・・
大学系の図書館をあたってみようかなぁ
借りれるかどうかが、わからないけど

138 :名無しさん@お腹いっぱい。:2009/12/22(火) 09:10:10 ID:N6InEtR20
>>137
妄想はオカルト板で。
>>132
3行以内で書けよバカタレ

139 :名無しさん@お腹いっぱい。:2009/12/24(木) 02:04:03 ID:nYemEINX0
何しきってんだバカ。余計なこと言うな。
人扱き下ろすしか能のない奴ばっかの人工知能関連スレの中で
プログラム書いて晒そうなんて気概のあるのはそういないぞ。

140 :名無しさん@お腹いっぱい。:2009/12/24(木) 07:45:32 ID:5dnLUJ0t0
他人を利用する気満々だな(笑)
下心くらい隠せよ
人間のクズ


141 :名無しさん@お腹いっぱい。:2009/12/24(木) 10:33:48 ID:zagIgN/v0
クズは自分では何もできない。これは昔から同じってことww

142 :47:2010/01/14(木) 14:19:11 ID:pdqpgJw00
やっと、規制解除されたみたいなんで、今年の初書き込み

自己組織化マップについて自分なりに、まとめたので
暇なら読んで意見くれると嬉しい。
http://www.ff.iij4u.or.jp/~ranmaru/ai/neural_memo/ai_memo04.html

ソースの方はGUIが絡むのでRuby単品では動かなくなったのだが・・・どうしようかね?
希望者が一人でもいれば、UPしようかな(コメントない、未整理のやつだけど)

>・「自然言語処理ことはじめ」荒木健治著  
>・「ヴァーチャルインファント」須賀哲夫・久野雅樹著  
この2冊、買いました
「ヴァーチャルインファント」はアマゾンの中古屋で45円で手に入ったのが幸運でした・
オレの処理能力が低いので、少しづつよんでいます。

「自然言語処理ことはじめ」の「かな漢字変換」のところまで読んでて
日本語っていうか言語の基礎って「音」だよな?
日本語の場合だと、平仮名で「音」をすべて表せる
もうちょっと砕くと、母音と子音の組み合わせて「音」を表現できるから
「かな漢字変換」と組み合わせると別なアプローチが出来るんじゃないかと考えてる。
赤ん坊も「言葉」はしらないが「音」は常に情報として入手していることから
自然言語の基礎となる「プリミティブ」の一つにとして「音」のアプローチは有りじゃないかな?

この本に書かれてる「同じものを見つける」ことが言語獲得の基礎の1つであることは
オレも間違が無いと思っている。
あとは、経験則を適用してやると、かなりよくなる気がするのだが、
経験則の適用っていうのが、すごい難問だよな。
コンピュータ自身が経験則を発見して、適用するのがベストだと考えるけど
その手前の段階として、人間の経験則を「プリミティブ」として与えらるのがいいだろうか?


143 :名無しさん@お腹いっぱい。:2010/01/14(木) 18:59:30 ID:1Zc7W2Ta0
>>142
人間が短時間で自然言語を学習できるのは人間の言語獲得装置が
少ない入力から自然言語の文法を組み立てるからだと考えられています。
任意の自然言語が先にあるのではなく言語獲得装置が先にあるのです。
ですから経験則ではなく普遍文法を組み込む方が汎用性があると思います。

普遍文法
http://ja.wikipedia.org/wiki/%E6%99%AE%E9%81%8D%E6%96%87%E6%B3%95
生得論
http://ja.wikipedia.org/wiki/%E7%94%9F%E5%BE%97%E8%AB%96

144 :名無しさん@お腹いっぱい。:2010/01/14(木) 19:42:19 ID:u8jyopsK0
クズは自分では何もできない。これは昔から同じってことww


145 :名無しさん@お腹いっぱい。:2010/01/15(金) 01:28:03 ID:JsQIa7N10
>>143
短時間といっても、人間が1つの言語を片言の会話レベルで使いこなすのに
約2年かかることは、子供を観察していれば見えてくる。
ある程度の専門的な知識を運用、思考出来る段階までにはおよそ15年かかる。
そう考えると、人間もたいしたことが無いのかもしれん。

>普遍文法
ずいぶん昔にどこかのTVでこれについて語っていたのを覚えてる
「mama」という言葉を中心にして、脳の中に生まれつきの文法があるという学説だった。
生まれつき耳の聞こえない人に対して読唇術を獲得させるために手話を教えない場合があるときでも
同じ教育を受けてる人どうしで、独自の手話が生まれ、それが既存の言語から大きく離れていないことも
根拠の一つだと言っていたな。
ただ、生得的な文法とか、言語獲得装置の仕様はブラックボックスを外から観察している
オレらには、非常に不可解なもので、未だにその詳細はわかっていないようでもある。

オレが思うに、それがあるとすると、人間が得ることができる情報(音、光等)の基礎的な情報から
生得的な方法での学習で行われているはずなので、オレがやってるアプトーチとそう大きくは離れてないと思う。
生得的な方法っていうのが「同じものを見つける」だけなのか、他にもあるのか
「同じものを見つける」というのも、別なモノの見方があるのかもしれない。

あと、すべてが生得的に備わっていると考えるのも違うとおもう。
自然言語には多くの例外規則があるが、これを例外と捉えるのは
あとから学ぶ経験則に他ならない。
まぁ、オレの場合は「経験則」ってやつを、どうやって表現するかってところでつまづいてるので
こいつを組み込むのには、まだまだ修行がたりないけどね。

146 :80:2010/01/23(土) 13:38:09 ID:Q4QI+MnY0
>>142
> 日本語の場合だと、平仮名で「音」をすべて表せる 
ちょっと無理がある。例えば「そういう」と書いても「そおゆう」という音になる。
英語等と比べると音との対応はさせやすいけど一対一ではない。

> 自然言語の基礎となる「プリミティブ」の一つにとして「音」のアプローチは有りじゃないかな? 
「有り」だとは思うけど、そこだけでも一研究テーマになりうるよ。
(McClelland,ElmanのTRACEモデルが近そうな気がするけど)
あんまり凝りすぎると最初にやりたかったことができなくなると思う。

> この本に書かれてる「同じものを見つける」ことが言語獲得の基礎の1つであることは 
> オレも間違が無いと思っている。 
> あとは、経験則を適用してやると、かなりよくなる気がするのだが、 
経験則より先にやることがあると思う。
例えばデータ構造。情報をどのように格納して活用するか。

入力された文字列をどんどん格納していき、
また入力の都度、過去の入力から類似例を検索して出力することを考えてみる。
この時、入力を配列なんかの単純なデータ構造に格納してるようでは話にならない。
何故なら検索時間が全データ量に依存してしまうから。
《知能ある振る舞い》というならそれは全データ量にではなく類似例の量に依存すべき。

>>143
批判や対立する理論があるのに「普遍文法で出来るよ」みたいに一方だけ推すのはどうかと。

147 :47:2010/01/24(日) 16:53:35 ID:p17urBIW0
>>146
>英語等と比べると音との対応はさせやすいけど一対一ではない。
文語と口語じゃどうしても違うからねぇ
母音と子音の組み合わせまで分解すれば、いいところまで行きそうな気がするんだけどなぁ

>あんまり凝りすぎると最初にやりたかったことができなくなると思う。 
ですよねぇ〜〜

>入力された文字列をどんどん格納していき、 
>また入力の都度、過去の入力から類似例を検索して出力することを考えてみる。 
いま、このモデルを作ってるところ・・・なんだけど
あまり進んでない。
原因は、データ構造をどうするか?ってまさにそれなんだけど・・・

簡単に「単純マルコフモデル」を表現するための辞書っぽいものなら
それっぽいものができるのだけど、
それって、同じものを見つけてルール化したことになるの?って疑問がある。
活用できる方向性も、なんか狭そうな気がする。

>《知能ある振る舞い》というならそれは全データ量にではなく類似例の量に依存すべき。
これができれば理想的なんだけど、類似なのかどうかを調べるための
すべての事例をしらべる必要が出てくるので、まともな方法じゃ無理?
それに前提として、「類似例」をコンピュータ自身が発見、分類できる必要もある。
うまくやらないと、類似例AとBは実は同じルールに基づいたものなのに、
コンピュータは別なルールと思ってしまう。結果として無秩序に新たな類似例をガンガン製造する
なんて結果が見えてくる。

なんか、色々要素があるのはわかってきたけど、まだ表現がまとまらない感じだな
もう少し勉強したら、まとめ方の方向性が見えてくるかな?

148 :名無しさん@お腹いっぱい。:2010/02/02(火) 13:45:40 ID:mtxnvYQ70
4-bit-parity-check 問題とはどういうものなのか
知っている方が居れば簡単にご説明頂ければ幸いです。

149 :80:2010/02/03(水) 00:52:27 ID:dEDmLhS30
>>147
> >入力された文字列をどんどん格納していき、  
> >また入力の都度、過去の入力から類似例を検索して出力することを考えてみる。  
> いま、このモデルを作ってるところ・・・なんだけど 
> あまり進んでない。 
> 原因は、データ構造をどうするか?ってまさにそれなんだけど・・・ 
> >《知能ある振る舞い》というならそれは全データ量にではなく類似例の量に依存すべき。 
> これができれば理想的なんだけど、類似なのかどうかを調べるための 
> すべての事例をしらべる必要が出てくるので、まともな方法じゃ無理? 
別に無理な話じゃないよ。

>>148
ググった方が早いし正確だと思うよ。


しかし真面目な話が始まり出すと途端に書き込み少なくなるのな。
こっちも質問してみたい事とかあるのに返事が期待できないのが何とも…。

150 :80:2010/02/03(水) 01:33:30 ID:dEDmLhS30
> > すべての事例をしらべる必要が出てくるので、まともな方法じゃ無理?  
> 別に無理な話じゃないよ。 
と言っておいて齟齬があったら嫌だから>146のモデルの動作例を具体的に書いておくw

@文字列ABCDを入力する
→出力:なし
A文字列aBCDを入力する
→出力:ABCD(BCDが共通)
B文字列xBCdを入力する
→出力:ABCD,aBCD(BCが共通)
C文字列ABxyを入力する
→出力:ABCD(ABが共通)
D以下(略)

みたいなのを想定。
ABCDは具体的にはそれぞれ[A="犬" B="が" C="歩い" D="た"]とかになる。

151 :47:2010/02/05(金) 17:50:47 ID:1yZthEcW0
>>150
Cの状態でABCDを出力するためには
ABCD
aBCD
xBCd
の全てとABxyを比較する必要が有ります。
なので、類似例の量に依存する作業ではなく
過去の例全ての量に依存する作業になります。

作業量の話とは変わりますが
>>150のような手順で
Aで、BCD部分をルール「イ」として
Aイ、aイ
が成り立ち
Bの時点では
BCの部分がルール「ロ」
AロD、aロD、xロd
が成り立ち
CでBの部分がルール「ハ」
として成り立ち
ルール「イ」に「ロ」が内包され、「ロ」にハが内包される
結果として、aBCdも同じルールとして処理できる・・・
って処理とデータ形式を考え中

でも、この方式だと、処理量が指数関数的に増えそうな気もするんだよね

152 :名無しさん@お腹いっぱい。:2010/02/05(金) 18:11:36 ID:yxbHbdbL0
当り前のことを言うなよ龍田君


153 :80:2010/02/05(金) 20:36:00 ID:gu0vGIJ20
>>151
いや、メモリは食うけど過去の例全てと比較しなくて良いデータ構造あるよ。
一ヶ所違いだったらポインタ2個辿るだけで一例を見つけられるような。
(但し格納はデータ量に応じて時間がかかるようになるけど)

154 :名無しさん@お腹いっぱい。:2010/02/05(金) 21:49:18 ID:yxbHbdbL0
>>153
君も存外お人好しだな。
君の提案を早速パクって、問題があればそのまま君に丸投げか(笑)
それを、あたかも自分が考えたかのように「考え中」だとさ。

まったく「ご提案ありがとうございます」の一言くらいないものかね。


155 :名無しさん@お腹いっぱい。:2010/02/05(金) 23:06:46 ID:1yZthEcW0
>>153
完全一致や前方一致だと、全件やらなくてもいい処理は知ってるけど
部分一致だと、そういう処理は知らないです。
なので、いまのところ全部見る方向で考え中

Rubyは元々遅いし、検索関連は、外部のリレーショナルDBに委託できないか?
なんていうのも考え中

脳の方も手続き記憶と意味記憶、エピソード記憶は別々に保管されてるみたいだし
言語的なルール(手続き)とその意味分けた方がいいんじゃね?っていうのも考え中
でも、現状で意味と手続きって分離できる?っていうのも考え中
そもそも、意味を取得できてないんで、分離の必要ないじゃね?とか

考えるばかりで、ちっとも進まないな〜っていうのが現状
まぁ、だいぶ固まってきたんで、もう少しかな
概要としては>>151に書いたもの実装を目指してる

156 :80:2010/02/05(金) 23:09:36 ID:gu0vGIJ20
いやまぁお人好しなのは認める。
例えば>>147の、
> >入力された文字列をどんどん格納していき、  
> >また入力の都度、過去の入力から類似例を検索して出力することを考えてみる。  
> いま、このモデルを作ってるところ・・・なんだけど 
で正直、「嘘付け!」とか思った。
僕が>>150書くまで具体的なイメージも持ってなかっただろう、とすら思ってるしw

基本的に>>146の問題提起はある理論の存在を前提としている。
だから仮にそれを自分で考え出せるなら既に一端の研究者な筈なんだよね。
(僕自身は研究活動によって金銭を得ていないアマチュアだけど)

にも拘わらず特に指摘もしていない理由は主に2点。
@>>139で書いたようにプログラム書いて晒したのが気に入った
A「>>151のやり方じゃうまく行きっこないしね」と思っているw

157 :80:2010/02/05(金) 23:23:05 ID:gu0vGIJ20
おっとニアミス
>156に書いた通り、>151のやり方はダメだと思うよ。
ヒントはあげるから考え直した方が良い。

・類似の判定は検索の都度ルールでやるんじゃなくて格納時に抽象化によって行う
・意味なんて関係なく、字面だけで判定できる

158 :名無しさん@お腹いっぱい。:2010/02/05(金) 23:30:50 ID:yxbHbdbL0
> @>>139で書いたようにプログラム書いて晒したのが気に入った

逆に俺は呆れたな。

作者は彼自身になっていて・・・それ自体は悪いことじゃないが、
公知のアルゴリズムをコーディングしただけの代物の作者を、自分とするような厚顔無恥な真似は
恥ずかしくて自分ではとても出来ないと思った。


159 :80:2010/02/05(金) 23:47:55 ID:gu0vGIJ20
「作成」が彼自身になってる事、それ自体は(多分)嘘ではないだろうし。
同じアルゴリズムでもソースは人によって変わるもんだし、
そこで個性を主張したくなっても非難する程の事でもないと思う…。
ていうか日本の著作権法上、厳密なpublic domainってのも無理だった筈。

160 :名無しさん@お腹いっぱい。:2010/02/05(金) 23:48:26 ID:yxbHbdbL0
>>80の人の良さに免じて俺からもヒントを

結局やるべきことは「キャッシュ」を作ることだ。
つまり、よく使うデータを先頭に配置するようにすればいい。

モデルは意外に身近なところにあるが2ちゃんねるの掲示板だな。
つまり入力データにマッチした過去データを「上げて」やればいい。
さらに頻繁に上がるようなデータには積分を掛けて簡単には下がらないようにすればいい。
俺は積分因子を数種類設定しているが、その主なものを「感情」と便宜的に呼んでいる。


161 :名無しさん@お腹いっぱい。:2010/02/05(金) 23:53:43 ID:yxbHbdbL0
どのような入力に対してどのように感情が遷移するかは
それは知能とは別の枠組で動くようにしているが
俺はそれを便宜上「本能」と呼んでいる。


162 :47:2010/02/06(土) 03:32:57 ID:/pf2vIbA0
>>156
>僕が>>150書くまで具体的なイメージも持ってなかっただろう、とすら思ってるしw 
まぁ、言い訳になるが、>>147の時点でこれの雛形(?)は作ってるのよ
データ構造がどうのこうのっていうのも、たぶんそちらが想定しているより低い次元でオレは悩んでる
なにせ「単純マルコフモデルの辞書」っぽいものから、ほとんど進化してないからなぁ

文章から代替えの効きそうな部分バラバラにして格納してるけど
それがルールとして機能するか?といわれると、たぶんしない
じゃぁ、ルールとして機能するための処理と構造ってなによ?ってところなのよ

>>157
>・類似の判定は検索の都度ルールでやるんじゃなくて格納時に抽象化によって行う 
なんか、根本的なところで、オレの考え方のボタンをかけ間違ってる気がしてきた
ナニをドウ抽象化するのか、さっぱりわからないあたりが、ヒントになるんだろうなぁ
オレがルールと呼んでるものとも違うんだろうな、調べ直しだな

>・意味なんて関係なく、字面だけで判定できる 
紹介してもらった2冊でも、言語獲得の初期段階では意味の役割が薄いような印象だった
それよりも単語の獲得、自立語と付属語の判定と分類に力を入れている感じだった

163 :47:2010/02/06(土) 03:43:35 ID:/pf2vIbA0
>>158-159
作成の意味はアルゴリズムの作成じゃなくてソースの作成です。
既存の概念やアルゴリズムのソースコード化も立派な仕事だと思うし
そうして出来上がったソースコードはソースコードの作成者のものだとおもう。
そういう仕事をしているプログラマさんのためにも、ここだけは譲れない。
それに、今オレが誇れるのはここだけだしね。

>>160-161
頻繁に使うデータを前方に持ってくることで、全数検索より早く検索できるっていうのはわかる
完全一致がでれば、そこで終了できるから。
類似を探す場合だと、上のほうで候補を見つけたとしても、下のほうにさらに良い候補が潜んでる
可能性を否定できない。
・・・・たぶん、オレが想定してるところと使う場所が違うんだろうな。
このあたりも、宿題だな。

164 :名無しさん@お腹いっぱい。:2010/02/06(土) 04:10:38 ID:W2unlXdN0
と、ひたすら自己弁護に終始する龍田君であった。


165 :名無しさん@お腹いっぱい。:2010/02/06(土) 04:26:45 ID:W2unlXdN0
折角のヒントも理解が及ばないがゆえに、想定の範囲を逸脱すると全く応用がきかないようです。
勉強とパクリの区別がつかない方達によくありがちなことです。


166 :80:2010/02/06(土) 12:24:45 ID:0iOuvhnG0
>>162-163
> >・類似の判定は検索の都度ルールでやるんじゃなくて格納時に抽象化によって行う  
> なんか、根本的なところで、オレの考え方のボタンをかけ間違ってる気がしてきた 
ルールで思考するってのはヒトの知能の中でも比較的後の方で表れるものなんだよね。
一般的にヒトはルールで世界を捉えようとする傾向があるけど、
それを以て「ルールで全ての知識を表現できる」ってのは間違いだと思う。
そもそもif-thenルールなんてより基本的な16二項命題操作システムの発達で説明できるもんだし。

さらに言うならルールってのは本質的にシリアルなものなので、
超並列マシンでもある脳の処理としては実は馴染まないものだと思う。

> それよりも単語の獲得、自立語と付属語の判定と分類に力を入れている感じだった
今回のモデル化についてはそんな区別すらする必要ないよ

> 既存の概念やアルゴリズムのソースコード化も立派な仕事だと思うし 
> そうして出来上がったソースコードはソースコードの作成者のものだとおもう。 
> そういう仕事をしているプログラマさんのためにも、ここだけは譲れない。 
> それに、今オレが誇れるのはここだけだしね。 
そういう考えは大事だと思うよ。
それに色んな研究者のソースを見てたら分かってくると思うけど、
素晴らしい研究している所のでも正視に耐えないものは多いし。
(コーディング技術にまで頭使ってられないのか、もしくは下っ端に書かせているのか…)

> 頻繁に使うデータを前方に持ってくることで、全数検索より早く検索できるっていうのはわかる 
どっちかというとこれはヒューリスティックに属するもんだと思う。
いずれ必要になる時があるかもしれないけど今は無くても困らないよ。

>>164-165
さすがにそういう煽りは誰の利益にもならないから止めて欲しいかな…

167 :名無しさん@お腹いっぱい。:2010/02/06(土) 12:55:22 ID:W2unlXdN0
>>166
やれやれ、自分を食い物にしている者を甘やかすとはね、、、君が不愉快な思いをしなければよいけどね。

忠告はしたよ


168 :80:2010/02/06(土) 13:55:33 ID:0iOuvhnG0
別に僕オリジナルなことはまだ殆ど言ってないし、元より損は無いよ。
この程度の開示ですごいものが出てくるならむしろ利益だw
まぁそういうのは期待出来なくとも、こっちが行き詰まって質問した時に
違う視点を持ってアドバイスくれそうな人がたまに見てくれればそれでいい。

けど忠告はありがとう。

169 :47:2010/02/07(日) 05:14:47 ID:Pm0tEh6Z0
いろいろ刺激を受けて、イメージがまとまってきた。
こんな感じか?


>オレがガンダムだ
オレがガンダムだ

>私はコンピュータです
オレがガンダムだ
私はコンピュータです

>オレがジャイアンだ
オレが(ガンダム or ジャイアン)だ
私はコンピュータです

>私はガンダムです
オレが(ガンダム or ジャイアン)だ
私は(ガンダム or コンピュータ)です
(オレが or 私は)ガンダム(だ or です)
 (オレが or 私は)(ガンダム or コンピュータ)(だ or です)
  (オレが or 私は)((ガンダム or ジャイアン) or コンピュータ)(だ or です)
   (オレが or 私は)(ガンダム or ジャイアン or コンピュータ)(だ or です)

>オレはジャイアンだ
(オレ(が or は) or 私は)((ガンダム or ジャイアン) or コンピュータ)(だ or です)
 ((オレ or 私)(が or は))(ガンダム or ジャイアン or コンピュータ)(だ or です)

>太郎はラーメンが好きです
((オレ or 私 or 太郎)(が or は))(ガンダム or ジャイアン or コンピュータ or ラーメンが好き)(だ or です)
A=((オレ or 私 or 太郎 or ラーメン)(が or は))
 A(ガンダム or ジャイアン or コンピュータ or A(好き))(だ or です)

っていう処理をすれば、それらしくなる・・・・のか?
なんか80氏の言ってること微妙に違う気もするけど
まぁ、これで実装してみればわかるか?

170 :80:2010/02/07(日) 11:12:59 ID:oTXoISZW0
イメージつーか外部仕様の話じゃないか…(汗
後、微妙どころか全然違うから。>169で言うなら
一個目はそもそも過去の入力例が無いので出力なし、
二個目も一個目と共通点が全くないので出力なしだ。
三個目は「オレがガンダムだ」と出力していれば良し。

171 :47:2010/02/08(月) 02:48:50 ID:q9h1InZP0
>>170
すまん、こっちで勝手にすごい勘違いをかましていた。
>>150の仕様をやってみようと、実際に組んでみました。

そのソース
http://www.ff.iij4u.or.jp/~ranmaru/ai/sor/MatchOfText.rb
使用する関数
http://www.ff.iij4u.or.jp/~ranmaru/ai/sor/commonCharacterStringExtraction19.rb
使い方は
>ruby MatchOfText.rb 辞書ファイル 入力文字列

出来上がった仕様としては、1文字以上の共通部分を見つけて
共通部分があるなら、過去に入力した文字列から候補を出力する。
字面のみでの判定ってことだから、こういうこと?

ここで作ったものは、単純な全数検索だけど
これを抽象化することで、全数以下(?)にする方法があるってことだよな。
抽象化とかポインタとか、いっぱいヒントがでてるよな

例えば、共通部分が出た文字列毎に、同じ配列に入れる
そいつをインデックスにして、その後ろの文字が共通かを探っていく

ABCDという入力にたいしてAというインデックスからABというインデックスを探す
あれば、つぎにABの中にABCというインデックスがないかを探す
同時にBでも同じことを行う、CでもDでもおこなう
最終的に、ABCDでバラバラに行った結果の中で一番長く共通部分があるものを候補としてあげる

これだと、並列であれば、シリアルでの全数検索より早くなる場合があるな。
しかも、おそらく、文字列が長ければ長いほど、
そして、過去の入力が多ければ多いほど、その傾向が強くなるだろう。
しかも、とりこぼし無しだ。

こっちも、作ってみるかな
でも、並列での実装は難しいから、とりあえずシリアルにしたもので・・・

172 :47:2010/02/09(火) 21:08:43 ID:3G7udbwX0
http://www.ff.iij4u.or.jp/~ranmaru/ai/sor/MatchOfText2.rb

文を貯めこみながら、マッチングするクラスできた〜
データ構造としては以下の構造の配列を持っている
とりあえず、「インデックス型配列」とでも、名前を付ける。

["インデックス", [ [ インデックス型配列1 ], [ インデックス型配列2 ], ... ], [ "該当文1", "該当文2", .... ] ]

インデックスは、そのまま共通する文字列がはいっている。
インデックス+αの文字列をインデックスにもつインデックス型配列を、配列として格納している
該当文には、インデックスに該当する元となった文字列が配列として格納されている

この構造により、長い文章の部分一致を素早く見つけることができる。
格納するのには、検索より多くの時間がかかる・・・・
そして、大量のメモリを消費する

そして、作ったあと実験してて、気がついた。
共通部分を分類してるだけだと、初期の蓄積文章が少ないことのルールは、信用できない。
ある程度、文章量がたまってくると、信頼性も上がってくるが
全てに通じるルールには、なりそうにないな・・・

同じものをより分けることが基本路線でいいはずなんだけど
ルール化したものを、なんらかの方法で、使えるものと、使えないものに分けないとだめだな
より多くの文章との比較で格付けとかできるか?
いまは、最も大きな共通部分のみに反応してるけど、他の使い方も出来そうな気もするな

173 :名無しさん@お腹いっぱい。:2010/02/10(水) 20:43:14 ID:xAplKh+90
で?

174 :80:2010/02/11(木) 08:57:33 ID:IhonOEnw0
>172ではいくつか欠点が。しかも割と致命的。
@ABCDとAbDで「Aが似ているABCD」「Dが似ているABCD」と重複して判定される。
AABCDと比較してABCd、abCDのどちらがより似ているか?を判定できない
B類似例を得るのに、毎回インデックス型配列の個数分文字列比較しなきゃならない。

ある入力からできる抽象物は、例えばそれがABCDだった場合
・Aが任意になったもの(-BC) ex)aBC
・Bが任意になったもの(A-C) ex)AbC
・Cが任意になったもの(AB-) ex)ABc
の4通りがまず考えられる。更に抽象化されたものとして
・ABが任意になったもの(--C) ex)abC
・ACが任意になったもの(-B-) ex)aBc
・BCが任意になったもの(A--) ex)Abc
・ABCが任意になったもの(---) ex)abc
となる。入力がn個の部分に分けられるとすると抽象物はn^2-1個考えられるため、インデックス型配列が元の例より少なくなるとは限らない。
また、@に関しても「真ん中だけが違う」というルールをそれ自身として捉え切れていないことになる。

175 :80:2010/02/11(木) 09:31:02 ID:IhonOEnw0
おっと、ex)てのは使うところが変だな…

176 :チンパンジーのAIちゃん:2010/02/13(土) 08:30:47 ID:teqvgbsFP
われ思うゆえにわれあい。

177 :チンパンジーのAIちゃん:2010/02/13(土) 08:33:15 ID:teqvgbsFP
われ思うゆえにわれAI。

178 :名無しさん@お腹いっぱい。:2010/02/13(土) 20:00:32 ID:qsQpT60f0
我思うが故に宇宙あり。=科学

だってビックバン宇宙の外は観測する対象がないから存在しないって
物理定義だよ。

179 :80:2010/02/14(日) 01:41:16 ID:pScfshmW0
あ、>174ミスってた
> ある入力からできる抽象物は、例えばそれがABCDだった場合
ABCだった場合、でした。
> の4通りがまず考えられる。更に抽象化されたものとして 
3通りでした。

47氏が戦意喪失してそうな気がするので、多分最後のヒント。
・具体例と抽象物は1つクラスを作って、どちらもそのインスタンスとして表現した方がいい(と言うか配列じゃ表現しきれないと思う)
・具体例から抽象物へは再帰を使ったら十数行で生成できる
ABC→(-BC,A-C,-BC)
-BC→(--C,-B-)
A-C→(--C,A--)
-BC→(--C,-B-)
(但しA-Cからの--Cや-BCからの--C,-B-は既にあるので生成の必要はない)

180 :名無しさん@お腹いっぱい。:2010/02/14(日) 09:09:20 ID:G8WD/72f0
なるほど、それで終わりか。

181 :47:2010/02/15(月) 01:37:14 ID:Lb9MQcal0
>>179
なんか、うまくまとまらん

とりあえずの方向として
ABC
?BC
?B?
A?C
A?
?C
?

みたいなかんじでワイルドカードを挟んだ形式のものをつくる関数を作った
これと、別な文字列比較して、確定部分が最大のものが、最も似た形とする
ような感じつくってみるかなぁ

問題点としては、過去の入力の全数検査になるんだよなぁ
これも、方向間違ってるのかな?

ってわけで、生存報告でした。

182 :名無しさん@お腹いっぱい。:2010/02/15(月) 04:01:41 ID:sk4yDH3G0
>過去の入力の全数検査になるんだよなぁ
ありえねぇwwwww
まるで素人が行うアルゴリズムじゃないか。

183 :名無しさん@お腹いっぱい。:2010/02/16(火) 05:39:31 ID:1UzxVyfA0
全数て1000件MAXぐらいだから問題ないんじゃね?

184 :47:2010/02/16(火) 17:48:11 ID:l2GkCGRL0
>>183
1000件程度じゃ、あまり思わしくない結果になりそう
使える単語とか限定すれば、それなりになるかもしれんが
オレの目指すところと大きく離れる

少し形になってきたので、インデックス型配列と組み合わせることにする
これで全件検索よりはまともに動くはず。
入力文字列の文字数に応じて指数関数的に増える似た形にも
ある程度対応可能になるだろう


185 :名無しさん@お腹いっぱい。:2010/03/30(火) 13:32:12 ID:rvXujR5w0
270だけどもう一つ質問。

単語の相互関係を使って、コンピュータに言葉の意味を分からせようとする研究を良く見るけど
これってかなり良い結果は出せたとしても、絶対どこかで失敗すると思うんだ。

例えば痛みの意味をコンピュータに教えるにはコンピュータに痛みを実感させないとだめだと思う。
それを実現するには強い人工知能がいるんだろうけど。
でも相互関係だけじゃどこかでつまづくと思う。

言語処理を研究している人達はこのへんどう考えてるの?

186 :名無しさん@お腹いっぱい。:2010/03/30(火) 13:33:17 ID:rvXujR5w0
>>185
すいません最初の一行は無視してください。

187 :名無しさん@お腹いっぱい。:2010/03/30(火) 13:48:26 ID:TLIv7XLP0
>>185
それは記号着地問題として昔から有名な問題つか、疑惑。

だから、最近では肉体を持ったロボットの研究が盛んに行われている。

記号処理だけでは本当の知能が生まれようが無いのは恐らく皆、認識している。

188 :名無しさん@お腹いっぱい。:2010/04/25(日) 13:17:51 ID:C8blnb3+0
10 DIM WORD$(4,8),QA$(8)
20 FOR C=1 TO 4
30 FOR K=1 TO 8
40 READ WORD$(C,K)
50 NEXT K
60 NEXT C
70 DATA きゅうきゅうしゃ,くるま,おおきめ,しろい,はやい,しかくい,わからない,かんじゃさんをたすける
80 DATA ぞう,けもの,おおきい,はいいろ,のろい,やまみたいだ,くさい,はながながい
90 DATA おかあさん,おかあさん,おおきい,しろい,はやい,うつくしい,いいにおい,やわらかい
100 DATA メルヘンひじきごはん,ばか,ちいさい,ばっちい,のろい,いまいちだ,はながもげる,へんてこりんだ
110 INPUT PROMPT "なにがしりたいの?":A$
120 IF A$(1:8)=WORD$(1,1) THEN GOTO 130 ELSE GOTO 200
130 FOR C=1 TO 8
140 LET QA$(C)=WORD$(1,C)
150 NEXT C
200 IF A$(1:2)=WORD$(2,1) THEN GOTO 210 ELSE GOTO 300
210 FOR K=1 TO 8
220 LET QA$(K)=WORD$(2,K)
230 NEXT K
300 IF A$(1:5)=WORD$(3,1) THEN GOTO 310 ELSE GOTO 400
310 FOR C=1 TO 8
320 LET QA$(C)=WORD$(3,C)
330 NEXT C
400 IF A$(1:10)=WORD$(4,1) THEN GOTO 410 ELSE GOTO 500
410 FOR K=1 TO 8
420 LET QA$(K)=WORD$(4,K)
430 NEXT K
500 IF MID$(A$,CC,4)="ってなに" THEN PRINT QA$(1);"は";QA$(2);"だよ" ELSE GOTO 505
502 GOTO 1500
505 IF MID$(A$,CC,7)="どんなおおきさ" THEN PRINT QA$(1);"は";QA$(3);"よ" ELSE GOTO 600
510 GOTO 1500
600 IF MID$(A$,CC,5)="どんないろ" THEN PRINT QA$(1);"は";QA$(4);"よ" ELSE GOTO 700
610 GOTO 1500
700 IF MID$(A$,CC,6)="どんなはやさ" THEN PRINT QA$(1);"は";QA$(5);"よ" ELSE GOTO 800
710 GOTO 1500
800 IF MID$(A$,CC,6)="どんなかたち" THEN PRINT QA$(1);"は";QA$(6);"よ" ELSE GOTO 900
810 GOTO 1500
900 IF MID$(A$,CC,6)="どんなにおい" THEN PRINT QA$(1);"は";QA$(7);"よ" ELSE GOTO 1000
910 GOTO 1500
1000 IF MID$(A$,CC,8)="どんなとくちょう" THEN PRINT QA$(1);"は";QA$(8);"よ" ELSE GOTO 1100
1010 GOTO 1500
1100 LET CC=CC+1
1200 IF CC>=LEN(A$) THEN GOTO 1300 ELSE GOTO 1400
1300 FOR C=1 TO 1000
1301 FOR K=1 TO 64
1302 NEXT K
1303 NEXT C
1310 PRINT "ねえほかのこと"
1350 GOTO 110
1400 GOTO 500
1500 INPUT PROMPT "もっときいてくれる?":B$
1600 IF B$="うん" OR B$="いいよ" THEN GOTO 1760
1700 IF B$="ううん" OR B$="やめる" THEN GOTO 1800
1750 PRINT "じゃあつづけちゃうよ"
1760 LET CC=1
1770 GOTO 110
1800 END

189 :名無しさん@お腹いっぱい。:2010/06/06(日) 19:03:04 ID:rBFHEqSUO
どうでもいいけど>>147
文語と口語の使い方間違ってるよ

190 :名無しさん@お腹いっぱい。:2010/06/06(日) 22:50:42 ID:FRRTFmms0
>>187
日本語でおk

97 KB
■ このスレッドは過去ログ倉庫に格納されています

★スマホ版★ 掲示板に戻る 全部 前100 次100 最新50

read.cgi ver 05.02.02 2014/06/23 Mango Mangüé ★
FOX ★ DSO(Dynamic Shared Object)