博士課程でまとめようとしている研究についてまとめたいと思います.
研究の軸について,自分は異言語間話者の意思疎通の手法についてまとめたいと思っています. 異言語話者間とは何かというと,母語が違う人同士の意思疎通です.
経緯
昔から意思疎通のパラダイムというものに興味関心がありました.
初発は中学校の最初の英語の授業.日本語でしか物事を見たことがない人間に突然「I:私は」「am:です」「student:学生」「a:ある」とか書かれたカードの並び替え問題をさせるわけで,猿の知能テストかいなと思いながら日本語の語順にI student amと書き,当然のことながらバツとなったのを覚えています.
そのあと数回の授業ではなぜ語順や文法がこうなっているのか理解ができず(I student amでもam student Iだとなぜダメなのかが分からない),教科書をただただじっと眺めていて,ある時急に語順の違いで疑問形を示していることに気づき,意思疎通に別の,こんな語順重視のパラダイムがあるのか?それを使っている人間がいるのか,その言語で不自由なく生きていけるのか,日本語で表せるのに英語だと表せないものはないのか?と衝撃を受けたことを覚えています.
そこから言語自体や,言語の学習をして意思疎通を図ることに興味を持っていきました.
目標
言語の壁をちょっとでもなくして全世界で意思疎通しやすくしたい
方向性
方向性としては自分は二つあると思っています.
1. 外国語を学びやすくしてみんなが共通語を持つパターン(共通語パターン)
2. 外国語をみんなが話して,翻訳AIなど仲介が中にはいるパターン(母語パターン)
現状の課題
- については,Google翻訳やGoogle Glassesなどで解決されつつあるものの,まだ普及はしていません.すでに出ているサービスについてはまだUIの改善余地があるかもしれないし,出ていないものについては外国語話者同士の意思疎通のEmpiricalな研究はまだ行われていません.
- については,Duolingoなどもあるものの,もっと効果的な外国語の学習手法があるかもしれません.
若干課題がホワホワとしてしまっていますが,こんな感じです.
これまでの研究
今までは1.の方向でいくつか研究をしてきました.
出版されているものの一つとしては表情検出を使って動画の再生速度の調節を行い,外国語の動画の多視聴学習に役立てるというものがあります.
2.の方向でも研究を行い,字幕翻訳で会話をする時に要約した字幕を出すと会話のテンポが速くなるのではないかと思ってデモ論文を書いたことがあります(が,当時はLLMの速度や精度が悪く実用に耐えられたものではありませんでした).
少しずつですがNLPや音声系の論文を通じて技術の知識もつけて行っているので,今はもう少し肉薄した論文を書けるんじゃないかなと思っています(トライしている最中です).
とはいえ
典型的なADHDではあるのであちこち行きがちで,実は言語とは全く関係ないセンシングの研究で修士を取りました.
センシングはインターン先のメンターの方や学部時代の恩師の専門領域で,この分野の技術をバックボーンに*と思ってセンシングのテーマを選んだのですが,これはこれでめちゃくちゃ面白いです.
センサーのデータから特徴量を抜き出してモデルを作成したり(今はモデル作成→Ablation Studyの順かもですが),データやモデルを見る過程で分からない事項が何か分かってくるのがとても面白い.
来年はNorthwestern大学でセンシングとMLモデル作成に強い先生の元で修行するつもりです.待ってろシカゴ〜
*HCIにはコア技術がないため,技術知識がない者がHCIの研究から始めてしまうと,自分の売りがない研究(誰でも手をつけやすい研究)しか思いつかない&実行できなくなり,一発芸しかできず,そのうち首が回らなくなる.よって技術知識を持っていない者は何かNLP, ML, CV, センシング等々の技術を貪るように学び,HCIに持ってきてアービトラージを行うというのが暗黙的だが王道.