2011年11月のtweets (saved by twtr2src)

2011年10月のtweets ← [twilog] → 2011年12月のtweets

Wed, Nov 23

  • 02:16 この困難さをどこまで広げられるかという問題は大変チャレンジングな問題.
  • 02:15 換言すれば,相手が自分と多くを共有していればいるほど会話は易しいのであるが,「自律した知性をもつラジコンカー」(雰囲気はあると思うが,自己矛盾しているので単に「自立走行車」)とは共有されているものは少ないはずだから会話は困難.
  • 02:13 相手が自律移動車だと能力が限定されているから会話も限定され,つまらない会話しかできないということになりがち.
  • 02:12 一番面白い課題だと思っているのが,人工物との会話.突拍子もないように聞こえるかもしれないが,ちょうど自律した知性を持つラジコンカーとの会話と言った感じ.
  • 02:07 会話療法(Elizaもかなり意識していた)や会話あっせん人も面白い課題.深く考えるといろいろな難しさをはらんでいるが,浅い取り組みから初めて少しずつ深めていくことができる.
  • 02:05 会話を通じて,(知識の乏しい)素人が納得するよう,推薦する.例えば,旅行や健康に精通したエージェント(「旅行ソムリエ」,「健康ソムリエ」)が,旅行や健康についていろいろな相談に応じてくれる.
  • 02:02 相談相手エージェント.対等の相談相手はなかなか難しい問題だが,非対等の相談相手であればメリットがある.つまり,相手の方が専門的なことをよく知っているが,自分(ユーザ)は素人であるという想定.
  • 02:00 ロボットを使ったテレプレゼンス.一見簡単そうだがそんなことはない.映画「アバター」では通信は完全だと描かれていたが,現実は通信は途絶え,時間遅れがあり,物理アバター(ロボット)はそれほど思った通りに動かないので,半自律行動ができなければならない.
  • 01:58 言語・非言語コミュニケーション機能,ストーリー,教育的側面,文化性,情動モデルなどいっぱい組み込まなければならないが,Eliza的な小規模システムからsmall startできる.
  • 01:58 異文化トレーニングエージェントの実現は現在の技術の射程にあるとは思うが,容易であるとまでは言えない.
  • 01:55 異文化トレーニングエージェント.異なる文化,思想的背景を持つ会話エージェント.人間と異なり,少々無礼なことをしてけんかになっても,人間関係が傷つくことはないので,いろいろなことを試せて,その背景も説明できる.
  • 01:53 完全ではないが,いまの技術レベルで少し頑張ればいい線にいけそうなものをいくつか挙げてみよう.
  • 01:52 そうした話題が周囲で増えつつあるし,それを実現することで社会にもいろいろな貢献できると思う.
  • 01:50 こうした取り組みを個別に捉えていては会話情報学の意味がない.従来別々に行われてきた取り組みを統合することによって,これまで取り扱えなかった会話の新しい側面が照らし出されるようなしかけをいろいろ考えなければならない.そこが会話情報学の醍醐味.
  • 01:46 しかしそれだけではまだ不十分であり,ゴフマンのように複数の人が直接的・間接的に会話に関与し,その空間構造に着目した分析も必要だし,会話を上位の意思決定や意図推定の文脈で捉えたり,コミュニティの中に埋め込まれた情報知識循環の中で捉えることも必要だ.
  • 01:42 さらに,Antonio DamasioやRizoratti, Iacoboniらの情動モデル,共感の脳生理モデルを取り入れて,会話参加者のモデルを脳生理レベルからきちんと作っていこうという考えが強まりつつあるように思える.
  • 01:37 会話の理解を主目的とした理学サイドでは,ヴィトゲンシュタインを源流とする会話分析,文化人類学,言語行為論の流れがある.このなかで,Kendonに発する会話システムの分析,McNeillらによる認知科学的視点の導入が加わり,
  • 01:32 Eliza→Hearsay-II→(The Knowledge Navigator)→Peedy→Reaという流れが1960年代から続いている.
  • 01:31 会話情報学の源流をいくつか挙げてみよう.工学サイドを見ると,第一は,自然言語対話システム→音声対話システム→会話エージェントシステムに至る流れだ.
  • 01:23 こうした膨大な学問からの知見を使えるよう編み上げて,さらに新たに必要となる技術をつくることが会話情報学のミッションである.
  • 01:20 会話の工学手側面については,自然言語処理,音声情報処理,コンピュータビジョン,アニメーション,ヒューマンコンピュータインタラクション,ロボット工学,データマイニング,…,とこちらも広い.
  • 01:18 とりあえず,思いつくものだけを考えても,言語学(言語学の主流は言語能力みたいだが,会話情報学に関わりが深いのは言語運用のほう),音声学,認知科学,会話分析,文化人類学,社会(心理)学,脳神経科学,….
  • 01:14 会話の理解にいったいどれだけの学問領域が関わっているかについては時間をみつけてきちんと考えてみたい.
  • 01:13 会話の理解についても,工学的応用の参考になる知識は膨大であるが,必ずしも会話の理解とシステム化のために統合されているわけではない.
  • 01:13 ただし,現在の会話情報学は工学的側面にやや重点が置かれている.つまり,分析をするにしてもあくまでも会話エージェントや会話的人工物を実現するための基礎研究であるという意識のもとに行う.
  • 01:11 こうした理学的興味と工学的興味が混在しているところが会話情報学の特色だ.さもなければ,果てしない分析,根拠のない開発になってしまう.会話情報学は両方を同時に行う.
  • 01:11 会話技術は現代の情報化時代で,SNSに代表される人と人のコミュニケーションばかりか,人と人工物との間のコミュニケーションを支える核心となる技術であると考えている.
  • 01:10 会話情報学は会話の理解と工学的応用を目指す.工学的応用には,人と人との会話を助ける.会話に参加できる人工物(ロボット,ソフトウェア)を作ることが含まれる.
  • 01:09 会話情報学の挑戦.会話が人間同士の最も基本的なインタラクションであることについては,論を待たないだろう.

Sun, Nov 20

  • 23:41 standing committeeには公平性は要求するものの,定量的で厳密な評価まで要求してしまうと折角の見識が発揮される場がなくなってしまう.むしろ,眼力と審美眼に基づいて議論を尽くしていただくことが委嘱したコミュニティにとって最もベネフィットがあると考えるべきだろう.
  • 23:38 先ほども述べたとおり,学術研究の評価はstanding committeeを信任した社会的行為であるという認識に立つべきだろう.
  • 23:23 科学的な行為は学術研究評価の手段としては使われても,学術研究の評価自体が科学的な行為である(従って,定量的かつ厳密に行われなければならない)という立場には違和感を感じる.
  • 23:18 評価は,コミュニティから信任されたstanding committeeが評価対象との利害関係若しくは利益相反がないことを確認した上で,公平な視点から行う社会的な行為である.
  • 23:10 私見では評価というのは,きわめて人間・社会的な作業であり,科学的な作業ではないと思っている.
  • 23:09 何を幸せと思い,何に価値を感じるかは,人毎に大きく異なっている.こうあるべきだとは言えない.
  • 23:07 ITを「人を幸せにする技術」と規定すると,必ずしも大多数の人を幸せにする技術が,少数の人を幸せにする技術より優れていると簡単には言えない(例えば,玄人が使えばものすごい威力を発揮するソフト).
  • 23:05 価値をわかる人が少ない挑戦的な課題だと,誰かの琴線に明確に響くことが必要だろう.つまり,集約方法としてaverageではなくmaxを使ったほうがよいということになる.
  • 23:03 ITの場合は,平均値は使うべきではないと思っている.
  • 23:01 投票者をpeerだけに限定すべきか,平均点を取るべきか,最大と最少を省いた平均点を取るべきなのか,単に最大値を取るべきか,第2位の点数を取るべきか,….
  • 22:59 しかし,研究(成果/提案)に対する評価ということになると,かなりばらつきが出ると思う.百歩譲って研究成果が1次元量として定量化できた(要は,点数をつけられた)としても,その集約方は自明ではない.
  • 22:56 科学者のはしくれとしては,「科学的裏付けを持つ命題」は非常に安定した存在であり,「ライセンスを持つ科学者」であれば,その真偽について皆同じ判断を下すと思っている.
  • 22:50 物理学,数学の先生方に伺ったところ,賞を選ぶときは大方の意見は一致するという.
  • 22:48 「定量的・厳密・客観的」な集約の仕方が存在して,それを実行することにより『正しい評価』ができる」と考えている人が多いのではないか?
  • 22:46 こうした多様な評価結果をどう集約したらいいのだろうか?
  • 22:43 あるい人はその技術を高く評価し,ある人は技法の美しさを評価し,ある人は着眼の面白さを評価する,といった具合.
  • 22:41 だが,こと価値観の話になると,物体の質量の例と異なり,客観はひどく広がる.100人いたら,100様の評価があるといってよいだろう.
  • 22:39 だから研究はそれを実施した研究者より,傍観者が客観的に評価したほうが公平だというわけだ.
  • 22:37 もちろん,上は平均的な話であり,時には自分ではまだまだと思っていることを大変褒めていただけることもある.
  • 22:36 (研究の)客観的評価に関してもほぼ同様なことが言えると思われている.一般に本人は自分自身を他人より(何を根拠にするのか知らないが)30%高く評価すると言われている.研究者の場合も,研究者は自分の研究を他者が思うより過大に評価していることだろう.
  • 22:33 古典物理的世界観では,物理現象に関しては確かにその通りだ.鞄が重いと思おうが軽いと思おうが,(鞄に変化がない限り,そして鞄を質点と近似するのであれば)その質量は変化しないから,鞄の重さを疑った主観は誤りであり,客観的に鞄の質量を測定すればすべてが決まる,というわけだ.
  • 22:30 ここで客観的評価が唯一であるという幻想があるように思える.しかしそうだろうか?
  • 22:28 この話にも関わるが評価の話.多くの人が客観的・定量的な評価を妥当とし,主観的な評価はだめだという.
  • 22:25 石井先生(西田理解)「日本の正史は現政権が執筆する.太平記では,現政権が家臣に記事を募集した.その結果,自家の手柄話ばかりになった.そうしたちゃらんぽらんな内容を非難したのが難太平記.」
  • 22:24 石井先生(西田理解)「中国の正史は次期王朝が執筆してきた.その伝統は今も続いている.当然,前王朝に対して批判的な立場で執筆する」
  • 22:21 金曜日の石井紫郎先生のご講演はとても面白かった.メモが手元にないので,記憶ベースで…
  • 22:12 忙しい研究者が1週間くらい研究の手を休めて取材に協力したら,discovery channelの1番組分くらいが英語で制作できるようにする仕組みを作れば,日本の研究者の取り組みが世界の人たちから共感を持って理解されるようになるのではないか.
  • 22:08 専門外の人が聞いて共感を感じるとしたら,Discovery channelのような仕立て,あるいはもっと同じ高さ目線での仕立て(専門外の友達に自分の研究のすごいところをわかってもらおうとしてする話といったところ)だろう.
  • 22:04 専門研究者になるためには,長年の学習研鑽を積み重ねてKを獲得しているわけであり,それをある程度短縮できるが,例えば20000字以内にまとめるだとか,1時間以内のトークにまとめて誰にでも親しめてわかりやすいものにするためには,膨大な労力と時間が必要だ.
  • 21:58 一般論として,メッセージMを解釈するためには背景知識Kが必要.Kを持っている人には短い表現でよいが,Kを有していない人には不足している知識を解説するところから始めなければならない.
  • 21:56 研究成果を(国際)社会にわかるよう表現することは一般論としては必要だが,普通の研究者には難しいし,too muchだ.
  • 21:54 一方で,Discovery ChannelやHistory Channelであれば,頑張る価値があるのではないかと思う.
  • 21:52 質の低い日本人の研究については,わざわざ新しいチャンネルを作ってまで国際的に晒すこともあるまい.
  • 21:51 質の高い日本人の研究は(業績相応に)もう十分に世界に認知されている.
  • 21:50 もう時代は違うのだから,「日本人の研究成果を世界に発信する」といった表現は聞きたくもない.
  • 21:47 もちろん,世界的に尊敬される国際学術雑誌の拠点が日本にあるとすれば,日本にとっては誇るべきことであり,科学技術立国日本にふさわしいことだろう.それを実現するための方略としてどのようなものがあるか,考えていきたい.
  • 21:41 インパクトファクターやランキングに全面的に賛成するわけではないが,現実を見ると,これらのランキングが低い論文誌や国際会議の中には率直に言って品質が極めて悪くどう好意的に解しても価値を見いだせない論文が掲載されている傾向がある.
  • 21:39 さらに,③IJ(VS)は,淘汰のリスクに晒されるべきである.つまり,いかさまの価値感,編集委員,論文から構成されるIJ(VS)が滅びるメカニズムが必要.
  • 21:36 現状では,IJ(VS)の論文は英文で執筆されなければならないのは当然であるが,そのほかに,①投稿論文を世界中から受け付けるべきである,②その査読を行うEditorial Boardは国際的に作るべきである.
  • 21:35 我々が真剣に作るべきものは,「ある価値観体系VSを体現する国際論文誌」である.ある価値観体系VSを体現した国際論文誌がなく,VSに基づく研究者の論文が理解されず苦戦しているのであれば,そこにこそVSを体現した国際論文誌IJ(VS)を作るべき立派な理由がある.
  • 21:32 「日本でお金をかけて『英文論文誌』を刊行すべきだ」という考え方には多くの問題がある.最大の問題は,「英文論文誌」である.「英文論文誌」は必要条件であり,十分条件ではない.
  • 21:29 もちろん,他にも動機はあるだろう.ビジネスという観点から見ると,「国際ジャーナル」は学術論文でビジネスとなっており,ビジネスで収益(優良論文誌は購読料収入が中心)を挙げているわけであり,日本人の研究で海外の出版社がビジネスを行っているのはずるい,という見方もあるかもしれない.
  • 21:23 価値観の違いはあって当然だが,だから「日本でお金をかけて『英文論文誌』を刊行すべきだ」というのは短絡的思考もいいところ.
  • 21:21 例えば,「一流国際論文誌の論文の採否はそのエディトリアルボードの価値観で決まる.それは必ずしも日本人の価値観と合わないから日本人の優れた研究がしばしば不採録となる」という理由.本当だろうか?
  • 21:19 だから日本に拠点を置く国際論文誌をつくるべきだ,というところまでは少し距離がある.
  • 21:18 その根拠になるのが,日本人のトップ論文が海外の国際誌(その代表格が,Nature, Science)に掲載されているという現実.
  • 21:16 日本からの学術情報発信機能を強化するための英文誌の刊行があちこちで取りざたされている.
  • 15:42 さらに階段を築いていくことが必要.
  • 15:41 御意 RT @DruckerBOT: 小さく始めなければならない。大がかりな万能薬的な取り組みはうまくいかない。
  • 15:41 思い付きは超多忙でI am freeでない状態にあるときの開き直りから生まれそうな気がするが,それを育てて形にするためにはI am freeと感じられる長い連続した時間が必要.
  • 15:39 最終版は,I am freeと感じられる時間は「本質的な問題ないしは重要な仕事ないしは守秘義務のある仕事で時間に追われていない状態」にあるときだといえる.
  • 15:37 もう1点条件が付くのを忘れていた.それは,「守秘義務のある問題」であった.そのような状態にあるときは,自分のしていることをtweetできないからストレスがたまる.
  • 15:35 結局,「本質的な問題ないしは重要な問題で時間に追われていてtweetsもできない」状態がI am freeと感じられない状態であると言える.
  • 15:34 その②,その③はすべてこれに吸収される.しかし,「本質的な問題ないしは重要な問題で時間に追われている」は付け加えておきたい.さもなければ,踏み倒せばよい.
  • 15:33 I am freeでない状態その①はもっと一般化できる.結局「時間に追われていてtweetもできない状態」くらいでよかった.
  • 15:30 締切が迫っていなければ楽しい時間.逆に,不満足な状態で期日までに妥協点を探さなければならないのは最もつらい.
  • 15:29 I am freeでない状態 その① 論文を書いていて,かなり原理的なところから考え直さなればならない.しかし,締切が迫っている.
  • 15:27 昨日最後の査読が終わった.これでしばらくI am freeの状態.正確には,すべての事項に優先して考え続けなければならない問題が亡くなった状態.
  • 10:54 素晴らしい一瞬たち RT @sasakitoshinao: ナショジオの写真コンテスト、圧倒的に素晴らしい写真45枚を大画面で。流し見するのがもったいない。/National Geographic Photo Contest 2011 http://t.co/XJ3tFdiL
  • 10:06 もっと共有されてもいい。ただし、判断の視点が核心。RT @DruckerBOT: 力を集中するための第一の法則は、もはや生産的でなくなった過去のものを捨てることである。

Sat, Nov 19

  • 22:34 もちろん RT @ladygaga: MARRY THE NIGHT: http://t.co/vbhSWT15!
  • 12:24 確かにすごすぎる. RT @sasakitoshinao: 驚くべき体験談。医療が整っていない辺境での病気は本当に怖い・・。/チベットの旅先でマラリアに発症したというlalalacozyさんの顛末がすごすぎる – Togetter http://t.co/Pa6qwre7
  • 11:34 政府サーベイランスのための市場動向 RT @JuliaAngwin: … retail sales of surveillance tech were tiny. Today its a $5 billion market. … http://t.co/ZbeN623s

Tue, Nov 15

  • 09:33 Prof. Jane Yung-jen Hsuのことですね? RT @ko_hironoki: @toyoakinishida 許先生は修士時代の指導教官でした.こんなところで見かけるのは嬉しい限りです.
  • 08:50 人の動きに合わせて変化する表示を用いたフィットネスクラブ。ARを使ったスマートルームと言えば身も蓋もないが重要なアプリhttp://t.co/Rm0x5n4q
  • 01:56 台湾訪問後記:GrCでお会いした人々.こちらはProf. Arbee L. P. Chen http://t.co/4niDaNss
  • 01:44 Arnetminerは写真や所属情報は正確.これはProf. Tzung-Pei Hong http://t.co/uj8W03bU
  • 01:36 台湾訪問後記:GrCでお会いした人々.Conference General ChairのProf. Tzung-Pei Hongは熱血漢.TAAIでもお目にかかった.http://t.co/6NcPEgCo
  • 01:21 台湾訪問後記:TAAIでお会いした人々: Prof. Thomas G. Dietterich(再掲) http://t.co/sFHJFOk7
  • 01:19 台湾訪問後記:TAAIでお会いした人々: Ted Selker.講演もinnovativeなマインドに満ちていたが,wikipediaにはさらに http://t.co/nc6HymND
  • 00:33 台湾訪問後記:TAAIでお会いした人々: Prof. Jen-Wei Huang, Yuan Ze University (Local Chair, TAAI 2011) http://t.co/Q9zBnkp2
  • 00:13 台湾日記:TAAIでお会いした人々:大会委員長のProf. Jane Yung-jen Hsu http://t.co/ykNq0AlQ

Mon, Nov 14

  • 12:46 こんな記事が…見事に失敗体験.高額授業料 http://t.co/WZ7eDlXh RT @toyoakinishida: 関西空港国際出口の両替所で台湾ドル→日本円.…驚愕.レートが2.06円/TWD.行きがけのレートは2.98円/TWD.往復で一挙に約2/3に収縮.…
  • 12:35 関西空港国際出口の両替所で台湾ドル→日本円.あまりに受取額が少ないので驚愕.レートが2.06円/TWD.行きがけのレートは2.98円/TWD.往復で一挙に約2/3に収縮.exchange-rates基準:2.600Y/TWD(11/6),2.582Y/TWD(11/14)

Sun, Nov 13

  • 01:14 Before not forget: TN: How do you deal with the case where variables increase (as a result of increase of observation pts etc)? TD: Future P

Sat, Nov 12

  • 15:18 birders: those who watch birds http://t.co/qzFTIwTv
  • 15:12 TD: to help citizen science //
  • 15:09 TD: new project: bird case, bird migration forecasting.
  • 15:07 TD: open questions: how much data are required to obtain a satisfactory model?
  • 15:05 TD: use of piecewise constant function to approximate probability of observation.
  • 15:02 TD: partial dependence plot for simulated species
  • 15:00 TD: testing with simulated species
  • 14:56 TD: Standard approach: log linear, regression tree parameterization
  • 14:52 TN: how much theories scientists built so far can be integrated?
  • 14:51 TD: I miss some of the birds, or some animals hiding.
  • 14:50 TD: wildlife surveys with imperfect detection
  • 14:49 TD: species distribution modeling as application (with unobservable variables)
  • 14:45 TD: Tree boosting for conditional random fields, conditional random field (Lafferty et al., 2001)
  • 14:44 TD: L2 treeboosting can be applied to any fully observed directed graphical model.
  • 14:41 TD: functional gradient descent boosted regression trees, Fit a logistic regression models as a weighted sum of regression trees
  • 14:38 TD: representing P(Y|X) using boosted regression trees Freedman, Gradient Tree Boosting (2000)
  • 14:37 TD: existing efforts: dependency networks (Hackerman 2000), RKHS (Song 2011), Bayesian semi-parametric methods (Blei Jordan)
  • 14:35 TD: can we combine the best of both? parametric methods & non-parametric tree methods
  • 14:34 TD: disadvantages: poor probability estimates, does not support hypothesis testing, cannot handle latent variables, high variance.
  • 14:33 TD: … can handle missing values
  • 14:33 TD: tree-based methods, advantages: flexible model complexity, can handle discrete ordered and continuous variables,
  • 14:32 TD: flexible machine learning models: SVMs, classification and regression trees: tradeoff between complexity and accuracy
  • 14:29 TD: data must be transformed to match the parametric form.
  • 14:29 TD: disadvantages: model has fixed complexity; designer must decide about interactions;
  • 14:27 TD: advantages of GMs (parametric model)= each node has a meaning, supports statistical hypothetical testing.
  • 14:25 TD: advantages of GMs: can handle unobservable variables
  • 14:25 TD: Probabilistic Graphical Models: Bayesian networks
  • 14:21 Thomas G. Dietterich’s talk now.
  • 12:52 MiMI’s program is out. http://t.co/tmpqa4KR
  • 12:46 Ohmoto-sensei’s presentation. He emphasized social / controlling aspect of ICIE.
  • 12:42 This site helps gain more space for information. http://t.co/Q3mju5Vf
  • 12:41 It makes it possible to predict Amazon fire upto 5mth in advance! RT @BBCWorld: Ocean currents link to wildfireshttp://t.co/EVrD8S6W
  • 12:32 It has 80-year history! RT @BBCWorld: 2018 Commonwealths in Gold Coast http://t.co/lNhHpdwV
  • 12:19 Tzai-Der Wang and Colin Fyfe: “Training Echo State Networks with Neuroscale: visualization of time series”
  • 12:03 金で懐柔されたら知識労働者とは言えない. RT @DruckerBOT: 知識労働者を、金で懐柔することは不可能である。… 知識を基盤とする新産業の正否は、どこまで知識労働者を惹きつけ、留まらせ、やる気を起こさせるかにかかっている。
  • 12:01 Jen-Wei Huang: new algorithm for protecting privacy infringement.
  • 11:59 Jen-Wei Huang: “FISIP: A distance and correlation preserving transformation for privacy preserving data mining” — privacy protection
  • 11:54 People I met today: Thomas G. Dietterich at coffee break. http://t.co/sFHJFOk7
  • 11:53 People I met today: Ted Selker after his talk http://t.co/nDGgWc3B
  • 11:20 Question from the floor: Siri? TS: It is fabulous. Result from 25 years of research at SRI.
  • 11:19 TN: Are considerate systems talking each other to be integrated into a system? Ted Selker: If they are too much talking,they will not help
  • 11:15 TN: Are people reciprocal towards considerate machine? Ted Selker: Yes, Statistically significant.
  • 11:13 Ted Selker: “Future feel of tools”
  • 11:07 Ted Selker: “Human system interaction rather than human computer interaction”
  • 11:03 TN: Are you programming everything without machine learning?
  • 11:02 Ted Selker: “Controlling disruption”
  • 11:02 Ted Selker: “Intelligent context builder” “face interface” “facial gesture”
  • 11:00 TN: Considerate artifacts? Are they objects, animals, or humans?
  • 10:59 TN: Considerate artifacts? Are people considerate to these artifacts?
  • 10:58 TN: are these inventions independent from each other or integrated into a some kind of uniform system?
  • 10:54 Ted Selker: “Attending visually (Yarbus 1967).” “reading from eyes”
  • 10:52 Ted Selker: “Mind full of intentions, learning by watching”
  • 10:51 TN: how do you resolve ambiguity?
  • 10:50 Ted Selker: “Eyes as a social actor” “wishes from eye gestures; closed, open, blinks, wins, stare, gaze” TN : you need sensor fusion
  • 10:48 Ted Selker: “Mediating communication: a person and their environment” 自転車ライダーのヘルメットが情報をコントロール.
  • 10:44 Ted Selker: “Can computer read your minds?” “Language based directive?” “Intentions, reaction, possibility”
  • 10:43 TN: your opinion about over dependence of people on technology?
  • 10:42 Ted Selker: “physical virtual world interface” “chandelier video projector” “so many smart things” TN: how can you make them quiet?
  • 10:40 Ted Selker: “bioanalytical games. Learning to control parameters is essential to win”
  • 10:38 Ted Selker: Digital cigarette. Win Burleson
  • 10:37 Ted Selker: Smart sink, smart spoon that teaches cooking. TN: can people manage their activities such infoplosional world?
  • 10:34 Ted Selker: “Progressive relationships … dice” TN: OK, related to mutual adaptation that we have been working for the past 6 years.
  • 10:32 Ted Selker: “Smarts … talking trivet; recognizing situation” TN: Again, how do you know that you are in a situation?
  • 10:30 Ted Selker: “Autonomous considerate things” – so many sensors do not solve. misses, errors TN: anyway it is closely related to empathy.
  • 10:29 Ted Selker: “Finger control everythere! track point” TN: how do you know what is meant?
  • 10:28 Ted Selker: “E-floor; social commentary in a world that anticipates us”
  • 10:28 Ted Selker: “Speech recongntion -> listening; motivational system to help people”
  • 10:26 Ted Selker: “Maximum implicit communication”, TN: really? Should be maximum intention flow.
  • 10:25 Ted Selker: “Intention can be recognized/respected” TN: How do you know / make sure?
  • 10:24 Ted Selker: “Context aware computing group. Contrext aware platforms”
  • 10:23 Ted Selker: “helping people. Things that can take care of itself.”
  • 10:22 紹介では,fixするのが好きな人とのこと.talkでは,innovation.late John McCarthyはTSSのinventor …
  • 10:20 Ted Selkerのtalk now. Considerate system(親切なシステム/思いやりのあるシステム)
  • 03:16 あとは研究室の紹介.ICIE, Learning by mimickingなど //
  • 03:15 人間と人工物の場合は,心,感情,身体性の共有に遡って考察する必要がある.
  • 03:14 ここで,共有仮説(sharing hypothesis)の登場となる.人間同士の共感支援には,状況の共有,一人称視点の共有の支援がテクノロジーの役割になるだろう.
  • 03:13 人間同士の共感をテクノロジーでどう支援できるか?人間とロボットの共感を成立させることができるか?その条件は何か? …これらの疑問に答えることが求められる.
  • 03:11 共感のモデル化と強化には人工知能技術の出る幕も多い.今後の研究が期待される.
  • 03:11 その中心となる概念が共感.
  • 03:10 現状では,ヒューマニティとテクノロジーの相互依存(テクノロジーの不完全性をヒューマニティで補い,ヒューマニティをテクノロジーで強化する)というところに落ち着かざるを得ないのではないか.
  • 03:09 これらの問題は実に本質的で根深く,解は見つかりそうにない.
  • 03:08 しかしそうなると今度は,moral in crisis(モラルの崩壊),overdependence on technology(テクノロジーへの過剰依存) 等の問題が生じる.
  • 03:07 これらの問題は,頑健な社会エージェントを社会が構築し,その信頼性を保証するという方式で解けそう.
  • 03:06 しかし,そうなると,technology abuse(技術乱用), responsibility flaw(責任体制の崩壊)など深刻な問題が発生する.
  • 03:05 今後は,人工物の多くが自律エージェント(パーソナルエージェントと社会エージェント)に変わっていくだろうという予想を披露.
  • 03:03 その通りだと思う. http://t.co/N1AMH5Q6
  • 03:03 “Despite the rise and fall of AI’s reputation, it has continued to develop new and successful technologies. ” http://t.co/N1AMH5Q6
  • 03:02 “by government bureaucrats and venture capitalists. ” bit.ly/sMTAis
  • 03:02 ”The historical episodes known as AI winters are collapses only in the perception of AI …” http://t.co/N1AMH5Q6
  • 03:01 調査の中でWikipediaの”AI Winter”に面白い一節があったので紹介したい. http://t.co/N1AMH5Q6
  • 02:58 少し脱線するが,AI WinterについてAI Magazineでしばらく前に記事を書いたときに言及されたので,人工知能学会とAI Winterの関係にも触れた.
  • 02:57 日本の人工知能学会長という立場だったので,世界・日本の人工知能の歴史とか学会の規模などをふれてから,現在と今後の人工知能の展望へ.
  • 02:56 少しは肝心の招待講演の概要にも触れておきたい.  http://t.co/uBuvYnWh
  • 02:54 アルコールがないと食事自体は早く済んでしまうから,みなさん特に話すこともなくなって,一部を除いて食事後早々に引き揚げてしまった.夕刻以降に開催する懇親会にはアルコールはあったほうがいいのでは…
  • 02:52 日本での(夕刻以降に開催される)懇親会はさすがにそういうケースには遭遇したことがないが,たばこバッシングの次はアルコールになるに違いないと予測している身にはこういう現実を見ると戦々恐々
  • 02:51 ただ,ちょっとつらいのは,こちら(も中国も)若い大学人はお酒を飲まない傾向になっているらしい.昨夕は,私を含めて6名で会食をしたが,アルコールを飲んだのは私のみ.今日のレセプションはアルコール抜き(料理は立派).
  • 02:48 その日本の一員であるので,頑張って変えていこう.
  • 02:48 エレベーターでは,エレベーターに乗るときは誰か他の人が常に扉を開けていてくれていると仮定しているらしい(日本ツアーの?)おばさんが扉に挟まって…
  • 02:45 しかしそれにしても,海外に出て,日本を振り返るとガラパぶりがまた一段と….化石の国.
  • 02:41 日本からの参加者(研究室以外)では,阪大名誉教授の元田浩先生,小谷善行先生にお目にかかった.
  • 02:39 国際トラックの論文数は30件(ショートもあり)くらい,台湾からの論文はそのうちの半数に満たず,それ以外は海外からの論文,海外第一位は日本,次はシンガポール,次いで中国,…ということらしい.ただし,未確認情報.
  • 02:35 台湾人工知能学会全国大会には国際トラックと国内トラックがあり,どちらも査読を行う.国際トラックは採択率40%くらいで,台湾からの論文が不採択になったら,国内トラックに応募して,再度査読を受けるらしい(国内トラックの採択率はやや高いらしい).
  • 02:34 未確認情報だが,台湾人工知能学会は会員が300名くらいらしいが,そのうち120名前後(昨年は確か200名くらい)が全国大会に参加するという図式らしい.
  • 02:32 中国から台湾への参加者が多いのは何よりだが,ビザをとるためには,まず中国政府からの許可をとり,次に,台湾からのビザを取るということで大変らしい.アメリカに行くのも同様にビザ取得が大変らしい.
  • 02:30 Zhi-Hua ZHou教授のHP http://t.co/Mrxe4LeD
  • 02:28 南京大学のZhi-Hua ZHou教授は何回か会議の招待講演者としていっしょになったことがある.まだ三十代とのこと.中国のCSで一番若い教授とのこと.会食をして話した感じでも,講演からもよくわかる.データマイニングでAAAI, IJCAI,PRICAIなどに論文多数.
  • 02:23 いくつかの大学は中国と台湾に分かれた.清華大学もその一つ.国立清華大学(台湾)からのVon-Wun Soo教授はしばらく前に研究室を訪問されたので久しぶりの再会.また来年1月12日頃に来日とのこと. http://t.co/F3qh5J2D
  • 02:16 台湾人工知能学会会長はVincent Shin-Mu Tseng先生.気取らない人柄. http://t.co/U7zWt5ah
  • 02:14 もう一人のプログラム委員長は Chia-Hui Chang先生.HPの写真とは少し感じが違うが… http://t.co/9LbiCtSC
  • 02:10 Richard Tzong-Han Tsai先生はTAAIのプログラム委員長の一人. http://t.co/1YDFqANS
  • 02:09 司会のRichard Tzong-Han Tsai先生は研究室のYouTubeページを見てくださっていて,演者紹介で言及. http://t.co/LJcNvVEK
  • 02:05 今度は桃園に移動して,台湾人工知能学会全国大会での基調講演.演題は地味に「日本での人工知能研究」.

Thu, Nov 10

  • 00:53 来年のGrC 2012は杭州の浙江大学で開催される(先月末に行ったばかりの美しくて大きな大学).
  • 00:52 もちろん,研究室のメンバーも.実際,会議では日本からの論文が最多であったとのこと.
  • 00:51 日本からは,(ほぼ卒業/年齢順,これまでお名前を挙げなかった方のみ)では,日本感性工学会会長椎塚久雄先生,電気通信大学・大須賀昭彦先生,立命館大学・山下茂先生,東京工業大学・岡田将吾先生,立命館大学・黄宏軒先生,成蹊大学・法(のり)文恵さん.
  • 00:39 さらに,Program ChairのProf. Leon Shyue-Liang Wangとも長い間お話をした.長いアメリカ生活(ニューヨーク)を終えて帰国したが,ご家族はまだアメリカだとか http://t.co/5R94Q6M6
  • 00:29 Organization Chairの Prof. Bao-Rong Changも一つ向こうの席でよく話した.
  • 00:25 Fucultyのうち,Prof. HongはConference General Chair, Dr. Chia-Yen Chenはたくさんの司会とともに夏川りみの歌を熱唱. http://t.co/zvVComXO
  • 00:23 国立高雄大学Department of Computer Science and Information Engineeringは可なりたくさん出席.たしか,この会議のために講義などを1週間休止したとか.
  • 00:18 隣は,国立政治大學理學院の陳良弼先生.日本のことはよく御存知.PAKDDに深くコミット.生年も学位取得も同年.アメリカ体験も同様(ただし彼は歴ははるかに長し) http://t.co/PXNaX4Qv

Wed, Nov 09

  • 23:27 何よりも大事なことは「心」の部分.もちろん,いろいろ背景があるので,そう単純ではないが,誠実さと(目にものを言わせる)実力が大事.
  • 23:26 たまたま一番前のいい席にいたので,いろいろなアトラクションをまじかで見ることができた.歌も素晴らしかったが,学生によるマジックもすごかった.何とか尻尾をと興味深く見ていたが見破れなかった.
  • 23:23 ルーツだから威張るのではなく,もっと誇りを持って新しいものを生み出していこう.
  • 23:22 これらの歌が好きだからという理由よりも,これらの歌が好かれていることに感動した.我々はこれらのルーツであることをもっと自覚すべきだろう.
  • 23:19 一番感動的だったのは,アトラクションがたくさんあり,そこで日本の歌がかなり歌われたこと.記憶にあるだけでもThe first love, 「いつも何度でも」(もののけ姫から),涙そうそう(夏川りみ).
  • 23:10 そのせいもあるかもしれないがGrC2011のBanquetは大変pleasantだった.国立高雄大学の皆様には感謝感謝.
  • 23:08 さきほどGrC2011のBanquetから部屋に帰ってきた.思いもかけず,Outstanding Contribution Awardsの栄に浴した.ただただ感謝.
  • 08:09 To endow the agent with an ability of empathy, we study a method of sharing perceptual and cognitive features in a metaphorical way. //
  • 08:06 In order to enhance empathy among people, we use immersive collaboration environment to enable situation and first-person view sharing.
  • 08:06 Empathy-supported intercultural communication may be the next challenge.
  • 08:06 To wrap up, Social intelligence design addresses how technology may help the collective process of building and maintaining CALV.
  • 08:05 I’d like to emphasize the role of music and art in empathy.
  • 08:04 We need to establish a method for online evaluation of empathy.
  • 08:04 We need to think about using metaphors to overcome the difference at the embodiment and physiological level.
  • 08:03 We need to build a service agent by integrating fluid communication and high task performance engines.
  • 08:02 Among others, we need to realize a fluid communication engine by integrating verbal and nonverbal communication skills.
  • 08:02 Many issues are open for future research.
  • 07:53 In the experiments, our method has resulted in user’s satisfaction significantly more often than the baseline method.
  • 07:52 Experimental results obtained so far suggest that we can reasonably estimate emphasis change points of three kinds.
  • 07:42 We take into account that the user’s preference structure may change as s/he changes emphasized feature.
  • 07:42 Verbal responses and measurement of body movement and physiological indices were integrated to estimate the ordered set of features.
  • 07:40 To formulate a joint intention, interviews consisting of presentation of possible choices and asking for the preference are repeated.
  • 07:39 A research at higher level of abstraction addresses formulation of a preference structure on an unfamiliar subject.
  • 07:36 We generate the interactive behaviors of conversational artifacts from a collection of data obtained from the WOZ experiments.
  • 07:34 Learning by mimicking is employed as a computational framework for achieving communication-style sharing.
  • 07:33 The WOZ operator can control the robot’s head, shoulders, elbows, wrists, fingers, hip joints, knees, and ankles.
  • 07:32 which will take the same poses as the operator does by calculating the angles of the operator’s joints at every frame.
  • 07:32 The WOZ operator’s behavior is captured by a range sensor to reproduce a mirrored behavior of the robot, …
  • 07:31 to receive incoming visual and auditory signals and to create conversational behaviors in a natural fashion.
  • 02:10 so that the human operator with a feeling as if s/he indwells in a conversational artifact …
  • 02:09 In the immersive WOZ project we adapt ICIE or immersive collaborative interaction environment to the Wizard of Oz (WOZ) setting …
  • 02:09 We are working on a project for sharing first-person view and communication style.
  • 02:08 Another appraisal-coping mechanism can be used to handle emotions arising from the situation.
  • 02:08 The basic framework can be used to simulate the mental process of the observed person.
  • 02:08 It can be applied to simulate a mechanism for empathy.
  • 02:08 The eCute project bases its development on the appraisal and coping theory of emotion.
  • 02:07 The baseline approach appears to be to implement the simulation theory.
  • 02:07 Problem is not easy at all, for there are so many things to be shared between humans and agents.
  • 02:07 Let us now think about a technology for an agent that has empathy with people.
  • 02:07 We do so in order for the user to be able to visit there and experience the campus life there from anywhere on the globe.
  • 02:06 We are building an environment that can project an existing university campus into the virtual space.
  • 02:05 We are currently working on the cross-campus exploration project as a part of the eCute project.
  • 02:05 Simulated crowd allows the user to interact with simulated people with a given cultural background.
  • 02:05 We are currently building a system called simulated crowd.
  • 02:04 The current version can automatically re-construct from approximately 1200 digital photos a 3D scene for a 20m x 20m space in 4 days.
  • 02:04 As the user virtually walks around the given space, a panoramic image for the location is computed almost in real time.
  • 02:04 We have developed a method for automatically creating a virtual space consisting of panoramic images for a given area of the real world,
  • 02:04 We combined multiple computer-vision techniques such as structure from motion, multi view stereo, and depth map.
  • 02:03 ICIE: Immersive collaborative interaction environment.
  • 02:03 so one can indwell in the situation to share the insights with others.
  • 02:03 ICIE allows audio-visual scene from a given viewpoint to be projected on the immersive display and sound environment …
  • 02:02 Accordingly, the role of the technology is to help people share recognition of situations.
  • 02:01 People appear to have a perceptual-cognitive mechanism for empathy.
  • 02:01 Now let’s think about technology for enhancing empathy among people.
  • 02:01 What is shared ranges from situation to physiology.
  • 02:00 We have a good reason to assume the sharing hypothesis, i.e., the more is shared, the more empathy is gained.
  • 02:00 After all, empathy may take place at different levels of perception and cognition.
  • 02:00 Sometimes, it may exist just at the verbal levels, while some other times, it may just exist behavior level but at different levels.
  • 02:00 As suggested earlier, empathy may be distributed over multiple levels.
  • 01:59 On that level, we might have empathy caused at the metaphysical level, which is a thought about existence and ourselves.
  • 01:59 At this level, one may reason with language and logic, trying to figure out a logic of empathy.
  • 01:59 One level up from the ground level, we may have a verbal level.
  • 01:59 At this level, the observer may have physiological signals that may result from simulating the observed agent’s behavior.
  • 01:58 One level below, you will see the physiological level.
  • 01:58 The observer may be able to recognize the first-person view of the situation.
  • 01:57 The basic level might be empathy at the behavior level. At this level, the observer can mimic the behavior of the observed actor.
  • 01:57 It may be beneficial at this point to distinguish empathy at the different levels.
  • 01:57 The resulting emotional responses will be assumed for the observed person.
  • 01:57 It is probable that the process is enabled by mirror neurons of several kinds.
  • 01:56 Mental states of the communication partner are simulated using the observer’s mental model.
  • 01:55 A mental image is created for a communication partner, and keep updated.
  • 01:53 According to neuro-physiologists, however, things go quite different for humans.
  • 01:53 Theory theory can be applied to the case where image-based reasoning is involved.
  • 01:53 This kind of model involves reasoning about other people’s mental state, and hence is called theory theory.
  • 01:52 If the robot makes some kind of reasoning, the situation may appear a bit improved, though essentially the same.
  • 01:51 Although the reaction of the robot appears a bit sympathetic, it might have simply done so due to a quite straightforward code.
  • 01:50 Suppose that you say “I have a problem”, and the robot says in return “May I help you?”
  • 01:49 Let us look at the issue more closely.
  • 01:49 Q2: Can we build an agent that has empathy with people?
  • 01:49 Q1: Can we develop a technology for enhancing empathy among people?
  • 01:49 We have two key questions regarding emotion.
  • 01:48 and, often, to resonate with others’ emotional states.
  • 01:48 According to [Eisenberg 2010], empathy is defined as the ability to understand others’ emotions and/or perspectives …
  • 01:45 After a while, I realized that central issue is empathy.
  • 01:44 and models of culturally-specific behavior and interaction within narrative scenarios.
  • 01:44 We focus on developing culturally-specific agents based on the psychological theory of emotional engagement, …
  • 01:44 The target is young adults and children.
  • 01:43 We address novel learner-centered Virtual Learning Environment (VLE) for education in cultural awareness, understanding and sensitivity.
  • 01:43 The eCute project was motivated by the need for education in cultural sensitivity.
  • 01:42 Definitely, an integrated approach is needed to address intercultural communication.
  • 01:42 while collaboration and life styles need to be addressed in the middle and large, respectively.
  • 01:42 Communication style should be addressed in the small, …
  • 01:42 Definitely, the problem should be addressed from different perspectives.
  • 01:41 and gained greater awareness of the similarities and negotiable differences.
  • 01:41 It tells how he has overcome the differences as a result of being trained to engage with different perspectives of the world, …
  • 01:40 In this scenario, a Chinese student named HuaZhu first went to a university in Europe, where he felt lonely and alienated.
  • 01:38 This scenario is taken from the eCute in which I have been participating since last year. http://t.co/kDjy5gtA
  • 01:33 Our motivation scenario is about a situation where people are faced with difficulties caused by cultural difference.
  • 01:32 In this talk, I focus on how the ideas of social intelligence design can be applied to intercultural communication.
  • 01:31 and social intelligence as the ability of a group of agents to learn from experience when solving problem.
  • 01:31 Social intelligence as the ability of an agent to build a social relationship with others and to use it when solving a variety of problems;
  • 01:31 Underlying our approach is a bilateral definition of social intelligence:
  • 01:30 In the large, we look at social networks in a large group of people such as a community.
  • 01:30 In the middle, we look at collaboration in a group of people.
  • 01:30 In the small, we look at fast social interactions going in a small group of people.
  • 01:30 SID suggests that we need to look at the problem at different levels of granularity.
  • 01:29 CALV: community maintained artifacts of lasting value
  • 01:29 We address how technology may help the collective process of building and maintaining CALV.
  • 01:28 Social intelligence design is an interdisciplinary study on collective intelligence.
  • 01:28 The title of the talk is “social intelligence design for intercultural communication”.
  • 01:27 以前,字数のことを問題にしていた英語tweetsも試してみることになる.
  • 01:26 ここで講演メモを振り返って,今日8日の基調講演の概要を再現してみよう.
  • 01:24 昨年の8月にSan Joseで開催されたGrC 2010でも基調講演を仰せつかっていところ,2年連続は難しいかと思いつつ何とかなるだろうと思ってお引き受けしたがさすがにきつい. http://t.co/k15jzKgJ
  • 01:22 さて,肝心のトークについては,”social intelligence design for intercultural communication”と頑張ったタイトルをつけたばかりに苦戦.
  • 01:22 工藤先生ともこちらでお目にかかり,お礼を申し上げた.
  • 01:22 もともとGrC 2011は8月に北海道で開催されるはずだったが,風評被害を心配したIEEEの圧力で台湾にシフトになった.室蘭工大の工藤先生は大変ご苦労された.
  • 01:18 今回は,杭州でご一緒したばかりのつくば大の宮本先生とも再会.
  • 01:17 蘭州であったばかりのBin Hu先生とも再会したばかり.
  • 01:15 合肥では清華大学のMaosong SUN先生(NLP): http://t.co/LrZ7iff8
  • 01:12 会議関係者と招待講演者で夕食会(前夜祭).創始者のT.Y. Lin教授,出席者のZhongzhi Shi教授(Chinese Academy of Science)らと再開.
  • 01:10 MTV EMA 2011 レディー・ガガが4冠.でも「Lady GaGa steals the show …」と報じられていたが,こういうときは「steals」という表現を使うものなのだろうか… http://t.co/1PyFZZq4
  • 01:04 テレビは100chを超えるところまで放送があり,下の方のチャンネルでCNNが入ったので,かけっぱなしに.
  • 01:03 11月7日は少し散歩してからホテルに籠り,発表準備.
  • 01:02 錦織が残念ながらバーゼルでフェデラーに及ばなかったことのみ記しておこう. bit.ly/vrNoa8
  • 01:02 11月6日は,あと中日がクライマックスシリーズ出場決定したことと,
  • 00:58 蓮潭国際会館もずいぶん良いホテルで申し分ない(どころかいつも日本で出張旅費の範囲内で宿泊するホテルよりずっと良い)が,これまた大学(台彎首府大學)に所属するホテル.
  • 00:55 意を決して車の方を見ないふりしてそのまま歩き続けようというそぶりを見せたら,次々と続けてやってくる左折車はやっと減速のそぶりを見せ,2,3台やり過ごしてからやっと後から来る車が止まった…
  • 00:53 ただし,大きな車の交差点の横断歩道を青になってすぐ渡るとき,左折車(右側通行なので日本では右折に相当)が全然止まりそうにないのには閉口した.
  • 00:52 結果的には,危険は感じなかったが,Webで,「タクシーに乗るには申し訳ない距離」と誰かが書いていたのにつられて失敗.
  • 00:51 Google mapでは,高雄で左営(Zuoying)に着いてから,会場のホテル(蓮潭国際会館)まで歩いて15分くらいだと思い道も明確なのでと高をくくっていたらこれは失敗.暗くなってから人通りの少ない道だった.
  • 00:46 高鐵の車内販売の雰囲気も日本とよく似ている.
  • 00:46 話題がそれたが,残念ながら台湾の高鐵には,(たまたま乗車した列車だけかもしれないが)インターネット接続はなかった.
  • 00:45 乗り継で待つフランクフルトのラウンジで,いつもクレジットカードのオンライン決算で1時間パスを購入して,余った分(例えば17分)を,次の時にちまちま使うT-mobileとは大きな違い.
  • 00:42 車内のインターネットサービスについても超遅い上に,その場で購入できない.
  • 00:42 ICカードを取得するためには,長い長い時待たされる.
  • 00:41 そもそも東海道新幹線は,座席指定も料金徴収もインターネットでできているのに,ICカードも必要だし,乗車時に紙が出てきて,検札ではスタンプを押すというガラパぶり.
  • 00:39 しかし,検札には来なかった.検札は東海道新幹線だけの悪習.近鉄特急だって指定された席に座っていたら通過する.
  • 00:37 日仏独の合作と言うが,日本の新幹線そのもの.車内アナウンス(英語部分)は瓜二つ.ここは同じにしないで,日本のあのどこか冷たい日本語表現的なアナウンスでないほうがよいと思ったのだが….
  • 00:36 高鐵桃園から高雄(Kaohsiung)左営(Zuoying)へ.16:21発18:00着.
  • 00:36 バスで高鐵桃園(Taoyuan)駅へ15分ほど,30元.
  • 00:36 その後は快調に桃園空港着.
  • 00:36 ラウンジ入口から50メートルほど手前に落ちていたとのこと.ご迷惑をお詫びするとともに,助けていただいた皆様に感謝.
  • 00:35 結局,ラウンジで待っていたところ,チケットはどなたかに拾っていただき,届けられたとの連絡があった.搭乗口カウンターで受け取り,最後に搭乗の憂き目にはならなかった.
  • 00:34 よほど焦った顔をしていたのに違いない.カウンターでは「大丈夫ですよ.万が一出てこなかったら,再発行しますのでご安心ください.ただし,搭乗は一番最後にしていただきます」とのこと.
  • 00:32 時間はたっぷりあり,バタバタしていなかったのに…ショックの一言.
  • 00:31 歩きながら一度搭乗券を確認してパスポートと一緒に胸ポケットに入れた記憶があるが,そのとき,パスポートは胸ポケットへ,搭乗券は足元に落ちたのだろう.
  • 00:30 パスポートと一緒にチケットを確認して胸ポケットに入れることにしているが,ラウンジに入るとき取り出そうとしたら搭乗券のみなかった.
  • 00:29 関西空港で搭乗券を落とした.生まれて初めての不覚.
  • 00:28 11月6日から台湾.ここまでの足取りを振り返りたい.

Sun, Nov 06

  • 01:05 第2セットのタイブレークで放った鮮やかなダウンザラインによる2回目のミニブレークが分水嶺みたいに思えた.
  • 01:02 記録はここ.第3セットは6-0.二人とも体調が悪かったみたいだが,すごいことには違いない. http://t.co/U8xxGfv8
  • 00:59 錦織がジョコビッチを下した!

Sat, Nov 05

  • 09:32 試用が楽しみ! RT @sasakitoshinao: ついに夢のSFの世界? 発話後2秒で通訳。どのぐらいの音声認識・翻訳精度なんだろう。/ドコモが世界初の「自動翻訳電話」を9日から試験提供 日英間で8割以上認識 (サンケイビズ) http://t.co/7cHtnRCU

Fri, Nov 04

  • 08:19 続 RT @WSJ: Police arrested at least 16 people during an Occupy Wall Street rally outside Goldman Sachs headquartershttp://t.co/kzGfg1gi
  • 08:16 サービス停止で苦労しているらしい。 RT @wired: Siri takes an unplanned holiday. http://t.co/d83Huiah
  • 01:12 とても有用です! RT @neubig: 「自然言語処理ツール」のページを更新してみました: bit.ly/rFPIG7 今使っているツールのほとんどは入っています。広く使われているのにリストに載っていないものがあればぜひ教えてください!

Thu, Nov 03

  • 23:25 5年近く前にYasserさんが作ったnatural drawに近い感覚の3次元造形/モデリング/アニメーションツールを誰かが作っていないかと探したのだが… http://t.co/GhJiXINM
  • 23:08 どれもYouTubeだと2007年から2008年くらいのあいだにupされている. http://t.co/nbIoUmiV
  • 23:06 さすがに歩行関係は層が厚い. http://t.co/6MSWG5SP
  • 23:03 最近はこんな風になっているんだ http://t.co/kmJfBbNv
  • 23:00 virtual 3D city.なかなか面白そうだが,これはこの会社のデータセットを使えばということか?しかし,視点は地面までは降りていかない…  http://t.co/iFjnzY7G
  • 22:52 これは直感的だが力覚フィードバック装置が必要. http://t.co/ZKM7Uj4I
  • 22:51 顔を作るところ.実際は短い時間で済むのかもしれないが,すごく大変そう. http://t.co/kOugj8qv
  • 22:50 実写映像にキーとなる線を上書きして,テキスチャとオブジェクトを切り取るというのは面白い.カットされている部分があってそれなりに手間はかかりそうだが… http://t.co/wPtc8qPX
  • 22:48 YouTubeにアクセスしたのは,”intuitive 3D modeling”にヒットする映像を見たかったから.早速,teddyが出てきたのはよいとして,  http://t.co/buoVdfGH
  • 22:47 たまたまいまYouTubeでみた映像.内容は一部どうかと思うところがあるが,映像はよくできてる. http://t.co/H32VZoeR
  • 22:06 帰りは長崎~阿蘇山の上空を通過し,天草諸島もよく見えた.
  • 22:05 大阪(関西空港)から杭州へは2時間30分(正式には2時間40分).杭州からの帰りは2時間.フライトは短くてとても快適.
  • 22:03 所属を離れると,論文を刊行できても読むことはできない(reader pay)か,論文を読むことはできても刊行できない(author pay)のいずれかになってしまう.このあたりは,一考の余地あり.
  • 22:03 雑誌のオープンアクセスの件.著者が払うというモデルと,読者が払うというモデルがある.いずれにせよ,最終的には著者が所属するinstitutionが{掲載料,購読料のいずれかを}支払うことになるとの こと.
  • 22:02 これも完全に同意.以前,どこかで主張したかもしれないが「草リーグ」としての国内学会の役割は重要である.
  • 22:02 母国語学術雑誌の問題.preliminaryな結果を共有する役割に徹し,重要な結果は英語で刊行すべきであるというご意見.
  • 22:02 英語講義についても同様であり,文化保存のため母国語は重要であるが,科学技術の場合は,アイデアをグローバルに伝えるためには英語講義の導入は不可欠であり,フランスでも英語講義の方向の改革が進んでいるとのことであった.
  • 22:01 実は私の意見もそうなのだが,母国語を重んじているフランス文化圏の人(≒フランス人)もそうなのかと尋ねたところ,「この点は妥協しなければならない」とのことであった.
  • 22:01 すると,グローバルな社会では科学者は英語で論文を書くべきである,という返事が返ってきた.
  • 22:01 こちらについては,そうなると論文のオリジナリティを主張するためには,いろいろな言語の論文を漏れなく探さなければならないではないか,という異論に対する意見を求めた.
  • 22:00 そして,言語が異なっても内容が同じであれば同じ論文とみなす,という見解であった.
  • 22:00 こうしたソフトは結構有効らしい.
  • 22:00 彼の回答は,2重投稿にはIT(2重投稿検出ソフト)での対応が必要.ただし,まだ日常的に運用しているというわけではないとのこと.
  • 22:00 ポイントは2重投稿にどう対応しているか?内容が全く同じとき,異なる言語で書かれた論文は別論文とみなすか?という2つの点について意見交換.
  • 21:59 日頃疑問に思っていた(ドメスティック)ジャーナルについて少し意見交換をさせていただいた.
  • 21:59 会議で一緒になったProf. Thierry DenoeuxはElzevierの編集長(editor-in-chief). http://t.co/Lvovlfqb
  • 21:58 Zijingang Campusは古い大きな庭園を買い取り,古い部分を保存しつつビルを立てたらしいが,キャンパスの真ん中には大きな池があり,その周りに大きな建物が建っている.
  • 21:58 大学の中には,教員と学生の宿舎もあり,安い家賃で入れるらしい.
  • 21:58 会議で滞在したホテル(4つ星)はキャンパスの中にあり,国際会議の開催に適している.
  • 21:57 今回主に訪問したZijingang Campusは杭州の西北にあり最大で最も新しく,また大きい.
  • 21:54 会場の浙江大学はとても大きな大学.5つキャンパスがある. http://t.co/k318Ensn
  • 21:51 回顧tweets@Hangzou China.国際シンポジウムIUKMで杭州へ.10月27日~11月1日.