1.

論文(リポジトリ)

論文(リポジトリ)
赤嶺, 有平 ; 岡崎, 威生 ; 遠藤, 聡志
出版情報: 琉球大学大学教育センター報.  pp.18-22,  2023-03.  琉球大学大学グローバル教育支援機構
URL: http://hdl.handle.net/20.500.12000/0002019744
概要: 本稿では知能情報コースで実施した学習サポート事業の実施状況を報告するとともに、利用記録の取得及びサポート担当学生の負担平準化を目的として2021年度に構築した学習サポートを管理するためのwebシステムについて紹介する。同システムの導入により 、利用状況の詳細な記録を得ることができた。 続きを見る
2.

論文(リポジトリ)

論文(リポジトリ)
澤崎, 夏希 ; 遠藤, 聡志 ; 當間, 愛晃 ; 山田, 孝治 ; 赤嶺, 有平
出版情報: 知能と情報.  32  pp.668-677,  2020-04-15.  日本知能情報ファジィ学会
URL: http://hdl.handle.net/20.500.12000/47250
概要: 深層学習によって様々な分類問題が解決されているが,分類カテゴリ毎のデータ量が不均衡な問題を扱う場合,多くの課題がある.不均衡データへの対策として,少量カテゴリのデータ量を増加させ均衡化する手法がある.これをかさ増しと呼び画像処理分野ではノイ ズの付与や回転による方法が一般的である.最近ではGenerative Adversarial Network: GANによる画像生成手法を用いる場合がある.一方で,自然言語処理の分野では有効なかさ増し手法はいまだ確立されておらず,人手によるかさ増しが行われている.人手によるかさ増しではルールの設計など負担が大きく,機械的なかさ増し手法が必要となる.しかし,文章生成における機械的なかさ増しは画像生成に比べ不安定である.これは文章の特徴獲得の難しさが原因だと考えられる.そこで本論文ではグラフ情報に注目した機械学習による文章生成手法を提案する.CaboChaによって生成されたグラフ情報をGraph Convolutionにより畳み込み処理する.提案するGANにより生成されたかさ増し文章を3つの計算実験により評価し有効性を示した.
論文
続きを見る
3.

論文(リポジトリ)

論文(リポジトリ)
前田, 裕一朗 ; 遠藤, 聡志 ; 山田, 孝治 ; 當間, 愛晃 ; 赤嶺, 有平
出版情報: 第81回全国大会講演論文集.  pp.439-440,  2019-02-28.  情報処理学会
URL: http://hdl.handle.net/20.500.12000/46149
概要: 論文
4.

論文(リポジトリ)

論文(リポジトリ)
澤崎, 夏希 ; 遠藤, 聡志 ; 當間, 愛晃 ; 山田, 孝治 ; 赤嶺, 有平
出版情報: 第13回研究会オンライン・プロシーディングス.  pp.39-44,  2018-12-03.  Webインテリジェンスとインタラクション研究会
URL: http://hdl.handle.net/20.500.12000/46168
概要: 現在ディープラーニングの発展により様々な問題が解決されているが,その問題の多くは十分なデータ 量が確保されており,少量学習データでの問題解決は依然として課題となっている.データ量が少ない場合の対 策として,データを増加させるかさ増し手法が用 いられる.特に画像分野においては Generative Adversarial Network:GAN を用いた高精度な画像生成手法が注目されている.自然言語の分野においても,GAN を応用し文 章を生成する試みが広く行われているが,十分な精度の文章生成を行うのは難しい.原因の一つとして,自然言語 生成に用いられる GAN では,多くの場合構文構造は加味されていないことがあげられる.そこで,本論文では グラフ構造を畳み込む Graph Convolution を用いて,構文構造を加味した上で文章生成を行う手法を提案する.
論文
続きを見る
5.

その他

その他
前田, 裕一朗 ; 遠藤, 聡志 ; 山田, 孝治 ; 當間, 愛晃 ; 赤嶺, 有平 ; Maeda, Yuichiro ; Endo, Satoshi ; Yamada, Koji ; Toma, Naruaki ; Akamine, Yuhei
出版情報: FIT2018(第17回情報科学技術フォーラム).  pp.189-190,  2018-09-20.  電子情報通信学会 / 情報処理学会
URL: http://hdl.handle.net/20.500.12000/45894
概要: ショッピングサイトのレビューは商品の評判を知るために有益な情報の集合である。しかし、全てのレビューに目を通すには膨大である。本研究では、レビューから評価の視点となっている属性語を抽出してレビュー全体の俯瞰を行う。属性語の抽出には様々なアプロ ーチがあるが、Xu(Liu)らの提案するDoubleEmbedding-CNNでは、一般的なコーパスから学習した単語埋め込みとドメインに注目した単語埋め込みの二重埋め込みを使うことで高い精度の抽出を行った。しかし、この手法は属性語の抽出でよく用いられる品詞情報を加味していない。そこで、品詞情報を3つ目の埋め込みとして与えることで精度の向上を図る。
会議発表用資料
続きを見る
6.

その他

その他
長嶺, 一輝 ; 遠藤, 聡志 ; 山田, 孝治 ; 當間, 愛晃 ; 赤嶺, 有平 ; Nagamine, Kazuki ; Endo, Satoshi ; Yamada, Koji ; Toma, Naruaki ; Akamine, Yuhei
出版情報: FIT2018(第17回情報科学技術フォーラム).  pp.319-320,  2018-09-20.  電子情報通信学会 / 情報処理学会
URL: http://hdl.handle.net/20.500.12000/45893
概要: 人間がビデオゲームといったタスクを解くとき、そのタスクに出現するオブジェクトやその位置関係などの視覚的特徴に注視する。画像ベースのゲームタスクにおいて人間並みのパフォーマンスを発揮する、Deep Q Network という深層強化学習アルゴ リズムでも同様な事象が起きていると推測できる。そこで、本研究では、DQNが行動価値を計算する際に用いる CNN を Grad-CAM という手法で可視化して、学習過程でどのような特徴を捉えているか分析することを目的とする。
会議発表用資料
続きを見る
7.

論文(リポジトリ)

論文(リポジトリ)
多和田, 真悟 ; 遠藤, 聡志 ; 山田, 孝治 ; 當間, 愛晃 ; 赤嶺, 有平
出版情報: 第80回全国大会講演論文集.  pp.441-442,  2018-03-13.  情報処理学会
URL: http://hdl.handle.net/20.500.12000/46150
概要: 論文
8.

論文(リポジトリ)

論文(リポジトリ)
澤崎, 夏希 ; 遠藤, 聡志 ; 當間, 愛晃 ; 山田, 孝治 ; 赤嶺, 有平
出版情報: 第11回研究会オンライン・プロシーディングス.  pp.41-46,  2017-12-15.  Webインテリジェンスとインタラクション研究会
URL: http://hdl.handle.net/20.500.12000/46167
概要: 機械学習アルゴリズムが特徴量そのものを学習することで様々な領域での問題解決にブレークスルーが起 こっている.テキスト分類の問題領域でも,多くの場合.高い分類精度を達成している.しかし成功例の多くは 各正解ラベルのデータ量が均一あるいはそれに 近い状態であることが多い.このため.すべての正解ラベルデー タを十分量用意するためのコストが機械学習アプローチのボトルネックとなっている.また.ラベル毎のデータ 量が不揃いな場合は不均衡データと呼ばれうまく分類できないことが知られている.本研究では,自然言語の不 均衡データに対するかさ増し手法を提案する.提案手法を用いた,不均衡データ分類問題の計算実験を行い.分 類精度の検証によってその有用性を評価する.
論文
続きを見る
9.

論文(リポジトリ)

論文(リポジトリ)
糸洲, 昌隆 ; 遠藤, 聡志 ; 當間, 愛晃 ; 山田, 孝治 ; 赤嶺, 有平 ; Itosu, Masataka ; Endo, Satoshi ; Toma, Naruaki ; Yamada, Koji
出版情報: FIT2016(第15回情報科学技術フォーラム).  pp.113-114,  2017-09-09.  電子情報通信学会 / 情報処理学会
URL: http://hdl.handle.net/20.500.12000/45890
概要: 人のコミュニケーションにおける重要な要素は、メラビアンの法則より、ジェスチャーや表情などの視覚情報が半分以上を占めている。笑顔は人に良い印象を与える表情の一つであり、井上らの研究より、多少の年代差と性差はあるが笑顔は共通して評価が高いという 結果が出た。また、笑顔表情の形状と印象に関する研究より、顔パーツの形状や位置によって印象の違いが見られるという報告がされている。これらの研究より、表情を印象によって分類することで、さらに細分化できるのではないかと考えた。そこで本研究では、畳み込みニューラルネットワークを使用して印象の良い笑顔と悪い笑顔を学習させることで、笑顔印象の評価の推定するモデルを構築する。
論文
続きを見る
10.

論文(リポジトリ)

論文(リポジトリ)
西銘, 大喜 ; 遠藤, 聡志 ; 當間, 愛晃 ; 山田, 考治 ; 赤嶺, 有平 ; Nishime, Taiki ; Endo, Satoshi ; Toma, Naruaki ; Yamada, Koji ; Akamine, Yuhei
出版情報: 人工知能学会論文誌.  32  pp.none-,  2017-09-01.  社団法人 人工知能学会 — THE JAPANESE SOCIETY FOR ARTIFICIAL INTELLIGENCE
URL: http://hdl.handle.net/20.500.12000/37607
概要: Facial expressions play an important role in communication as much as words. In facial expression recognition by human, it is difficult to uniquely judge, because facial expression has the sway of recognition by individual difference and subjective recognition. Therefore, it is difficult to evaluate the reliability of the result from recognition accuracy alone, and the analysis for explaining the result and feature learned by Convolutional Neural Networks (CNN) will be considered important. In this study, we carried out the facial expression recognition from facial expression images using CNN. In addition, we analysed CNN for understanding learned features and prediction results. Emotions we focused on are "happiness", "sadness", "surprise", "anger", "disgust", "fear" and "neutral". As a result, using 32286 facial expression images, have obtained an emotion recognition score of about 57%; for two emotions\n(Happiness, Surprise) the recognition score exceeded 70%, but Anger and Fear was less than 50%. In the analysis of CNN, we focused on the learning process, input and intermediate layer. Analysis of the learning progress confirmed that increased data can be recognized in the following order "happiness", "surprise", "neutral", "anger", "disgust", "sadness" and "fear". From the analysis result of the input and intermediate layer, we confirmed that the feature of the eyes and mouth strongly influence the facial expression recognition, and intermediate layer neurons had active patterns corresponding to facial expressions, and also these activate patterns do not respond to partial features of facial expressions. From these results, we concluded that CNN has learned the partial features of eyes and mouth from input, and recognize the facial expression using hidden layer units having the area corresponding to each facial expression.
論文
続きを見る