<?xml version="1.0" encoding="UTF-8" ?><rdf:RDF 
  xmlns="http://purl.org/rss/1.0/"
  xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"
  xmlns:atom="http://www.w3.org/2005/Atom"
  xmlns:dc="http://purl.org/dc/elements/1.1/"
  xml:lang="ja">
  <channel rdf:about="http://w.atwiki.jp/iruka0913/">
    <title>iruka0913 @ ウィキ</title>
    <link>http://w.atwiki.jp/iruka0913/</link>
    <atom:link href="https://w.atwiki.jp/iruka0913/rss10.xml" rel="self" type="application/rss+xml" />
    <atom:link rel="hub" href="https://pubsubhubbub.appspot.com" />
    <description>iruka0913 @ ウィキ</description>

    <dc:language>ja</dc:language>
    <dc:date>2012-11-17T14:59:31+09:00</dc:date>
    <utime>1353131971</utime>

    <items>
      <rdf:Seq>
                <rdf:li rdf:resource="https://w.atwiki.jp/iruka0913/pages/30.html" />
                <rdf:li rdf:resource="https://w.atwiki.jp/iruka0913/pages/29.html" />
                <rdf:li rdf:resource="https://w.atwiki.jp/iruka0913/pages/28.html" />
                <rdf:li rdf:resource="https://w.atwiki.jp/iruka0913/pages/27.html" />
                <rdf:li rdf:resource="https://w.atwiki.jp/iruka0913/pages/26.html" />
                <rdf:li rdf:resource="https://w.atwiki.jp/iruka0913/pages/25.html" />
                <rdf:li rdf:resource="https://w.atwiki.jp/iruka0913/pages/24.html" />
                <rdf:li rdf:resource="https://w.atwiki.jp/iruka0913/pages/23.html" />
                <rdf:li rdf:resource="https://w.atwiki.jp/iruka0913/pages/22.html" />
                <rdf:li rdf:resource="https://w.atwiki.jp/iruka0913/pages/21.html" />
              </rdf:Seq>
    </items>
	
		
    
  </channel>
    <item rdf:about="https://w.atwiki.jp/iruka0913/pages/30.html">
    <title>memo 英語プレゼンテーション</title>
    <link>https://w.atwiki.jp/iruka0913/pages/30.html</link>
    <description>
      * 英語プレゼンテーションの極意
** スライドデザイン
- ヘッダ（セクションタイトル，トピックタイトル）
- メッセージ
- 視覚資料

----

** 基本的な英文法
*** 代名詞と名詞
- 対象をはっきりと特定する
- &quot;this&quot;, &quot;that&quot;, &quot;it&quot;の内容を明確にする
-- This is... → This figure is...
-- This tells us... → This chart tells us...

*** 発表原稿の注意点
- 堅苦しい表現は避けるため，一人称（We）や二人称（You）を使う
-- 直接聞き手に語りかけるようにする

*** 文章の量
- スライド資料に英文を載せる場合，1文は7ワード以内
- 原稿では，17ワード以内

*** 時制
- 原則として，プレゼンテーションでは「現在形」「過去形」「未来形」しか使わない

*** 態
- できる限り「能動態」を使うようにする．
-- 受動態よりも能動態のほうがポイントをダイレクトに際立たせる
-- ×Last year, many products were introduced by our company.
-- ○Last year, our company introduced many products.

*** 数字
- 基本的に1～9までの数字は文字で書く（スペースや視覚的に考えて数字のほうがいい場合もある）
- 金額，パーセント，少数は数字で書く

*** about ≠「約」「およそ」
- approximately
- around

----

** 構文作成テクニック
*** 原稿とスライド作成にあたっての基礎
- 発表原稿：簡潔で自然な口語体を使う．センテンスを完結させる必要がある．We,Our,You,Yourという表現を頻繁に使う．
- 発表スライド：ビジュアルで簡潔な英語を使う．センテンスとしては不完全であっても，ポイントが明確に表現されるように書く．

*** 主語+動詞+目的語
- 日本語を直訳してはいけない．多すぎる情報は聞き手の理解を妨げる．
-- まず，その文のキーワードを英語で考え，主語を決定する．
-- 次に，    </description>
    <dc:date>2012-11-17T14:59:31+09:00</dc:date>
    <utime>1353131971</utime>
  </item>
    <item rdf:about="https://w.atwiki.jp/iruka0913/pages/29.html">
    <title>memo EUC2012発表原稿</title>
    <link>https://w.atwiki.jp/iruka0913/pages/29.html</link>
    <description>
          </description>
    <dc:date>2012-11-26T14:13:51+09:00</dc:date>
    <utime>1353906831</utime>
  </item>
    <item rdf:about="https://w.atwiki.jp/iruka0913/pages/28.html">
    <title>memo システム実装その2</title>
    <link>https://w.atwiki.jp/iruka0913/pages/28.html</link>
    <description>
      * &#039;&#039;今後やるべきTODOリスト&#039;&#039;
- 2012.10.20以降の修士研究におけるTODOリストをまとめる．
- 11月の初めには実験を行う必要がある．

*** &#039;&#039;TO DO List(2012.10.24)&#039;&#039;
- &#039;&#039;① システム実装&#039;&#039;
-- 基盤ソフトウェアフレーム実装
--- 姿勢推定モジュール：慣性センサとのBluetooth通信スレッド
--- 画像変換パラメータ計算モジュール：OpenCVのメソッド利用
-- 歩幅提示アプリケーション実装
--- センサ通信モジュール：Bluetoothによる複数スレッド
--- 歩行速度推定モジュール：WAA006からのデータを使って計算
--- 歩行周期検出モジュール：2つのArduinoからのイベントデータを管理
--- 歩幅位置計算モジュール：実世界座標系での話
--- 画像描画モジュール：SurfaceView上でOpenCVのメソッドで描画
-- 歩行リズム提示アプリケーション実装
--- 
- &#039;&#039;② システム予備実験&#039;&#039;
-- 健常者でシステムを利用してもらう
- &#039;&#039;③ ユーザ評価実験&#039;&#039;
-- キャリブレーション歩行実験
-- 歩幅提示機能の短期効果検証実験
--- 通常歩行
--- 投影ありで歩行
-- 歩行リズム提示機能の短期効果検証実験
--- 通常歩行
--- 投影ありで歩行
--- 聴覚リズムありで歩行
-- データ分析
--- 平均歩幅の比較：歩幅提示機能の効果
--- 平均歩行周期/分散の比較：歩行リズム/歩幅提示機能の効果
--- 加速度データ分析による周期性/円滑性/対称性の比較：歩行リズム/歩幅提示機能の効果
--- Wearable Comfort Scaleのアンケート分析：システムの装着感の評価
--- NASA-TLXのアンケート分析：システム利用による負荷の評価
--- 提示情報に関するアンケート：見易さ，歩きやすさ，利用の簡単さ，利用したいと思うか，など
--- インタビューの分析
- &#039;&#039;④ システム基礎評価実験&#039;&#039;
-- 実世界投影精度の評価
--- 投影位置，サイズの誤差を計測
-- 歩行周期検出精度の評価
--- 直線を歩行してもらい，歩数をカウントしてオフラインで数を比    </description>
    <dc:date>2012-10-24T16:40:16+09:00</dc:date>
    <utime>1351064416</utime>
  </item>
    <item rdf:about="https://w.atwiki.jp/iruka0913/pages/27.html">
    <title>memo ESS2012発表原稿</title>
    <link>https://w.atwiki.jp/iruka0913/pages/27.html</link>
    <description>
      ** ESS2012発表原稿

*** タイトルページ
- P.1
- &#039;&#039;(speak)&#039;&#039; それでは，東京農工大学の村田が発表させていただきます．~
タイトルは，「センサの帯同場所を考慮した個人参加型センシングのための環境センサモジュールと基盤ソフトウェア」です．~
よろしくお願いいたします．


*** 見出し: 【本研究の背景と目的】
- P.2
- &#039;&#039;(speak)&#039;&#039; まず，本研究の背景と目的について説明します．~


*** 背景1: 【スマートフォンを利用したヒューマンプローブの増加】(P.1)
- P.3
- &#039;&#039;(speak)&#039;&#039; 近年のセンサ技術やMEMSの発達によって小型で持ち運べるセンサデバイスが多く登場してきました．~
これによって，たくさんの参加者で色々な情報を大量に蓄積して共有する「ヒューマンプローブ」というセンシングパラダイムの研究が盛んに行われるようになりました．~
特に，近年では，スマートフォンを使ってヒューマンプローブをする研究が増えてきています．~
例えば，スマートフォン内蔵のマイクロフォンを使って，街の騒音マップを生成するシステムや，USB接続したセンサを使って，細粒度の大気汚染マップを作るシステムなどが提案されています．~
スマートフォンを使う大きな理由は，センシングへの参加の敷居を大きく下げることができることです．~
スマートフォン内蔵のセンサ，もしくは直接接続されたセンサを使えば，新しく別のセンサを持ち運ぶ必要がなくなります．~
そして，ユーザは意識せずに日常生活で環境計測を行なえるようになります．~
また，計測結果をインターネットに簡単にアップロードできることも利点の1つです．~
このような理由から，日常生活で大量の環境データをより細かく得るためには，スマートフォンを用いることが望ましいと考えられます．~


*** 背景2: 【スマートフォンを利用した環境計測の問題点】(P.2)
- P.4
- &#039;&#039;(speak)&#039;&#039; しかし，この方法には問題点があります．~
それは，帯同場所の自由度の高さです．~
首から下げたり，胸ポケットに入れたり，ズボンのポケットにしまうなど，人によっても，また，状況によっても身につける場所は異なります．~
この帯同場所の自    </description>
    <dc:date>2012-10-16T22:45:28+09:00</dc:date>
    <utime>1350395128</utime>
  </item>
    <item rdf:about="https://w.atwiki.jp/iruka0913/pages/26.html">
    <title>memo 歩幅推定(WAA006)</title>
    <link>https://w.atwiki.jp/iruka0913/pages/26.html</link>
    <description>
      * Memo WAA006-010

*** モデル近似による歩行速度推定(2012.10.28)
- &#039;&#039;方法&#039;&#039;
-- 歩行特徴量を用いて1次回帰式によるモデル近似を行い歩幅(歩行速度)を推定する．
-- リアルタイム処理では，一歩ごとの歩行特徴量から回帰式にフィッティングして算出する．
- &#039;&#039;特徴量の候補&#039;&#039;
-- 鉛直加速度成分の最大最小の差分値d(v)
--- SL = d(v) * a + b
-- 進行加速度成分の最大最小の差分値d(h)
--- SL = d(h) * a + b
-- 歩行周波数f（1sあたりの歩数）
--- SL = f * a + b
- &#039;&#039;収集すべきデータ&#039;&#039;
-- 鉛直加速度データ
-- 進行加速度データ
-- 歩行周期(FSRによる着地イベントの間隔)
-- 一歩ごとの鉛直加速度データの最大最小の差分値
-- 一歩ごとの進行加速度データの最大最小の差分値
-- 歩行周波数(歩行周期の逆数)
-- 平均歩幅(歩数と距離から近似的に算出)
- &#039;&#039;実験設備&#039;&#039;
-- 直線で歩行してもらう
-- 歩行開始と終了を記録する必要がある
--- IRセンサで自動記録するシステムを作る
--- 歩き出しと終わりはとる必要があるだろうか ⇒ 実際の実験では存在する
-- センサの装着位置
--- 前腰部中央
--- 胸部中央(プロジェクタ姿勢推定用で代用可能かどうか検証)
- &#039;&#039;データ収集システム構成&#039;&#039;
-- 処理端末
--- Android or ノートPC
-- センサ類
--- WAAセンサ2個
--- FSRセンサモジュール2個
--- IRセンサ2～4個(歩行開始/終了 + 一定速度になってから開始/終了)

*** 加速度波形の積分による速度計測
- 波形：横軸が時間で縦軸が対象波形の場合
-- 加速度波形：歩行開始時にプラスの山ができる，中間では山なし，歩行終了時にマイナスの山ができる．
-- 速度波形：歩行開始時にプラスの勾配ができ，中間ではそのまま持続，歩行終了時にマイナスの勾配ができる．
-- 変位波形：歩行開始時にゆるやかなプラスの変化，中間では一定勾配でプラスされ続け，歩行終了時にゆるやかなプラス変化で一定変位に収束する．
    </description>
    <dc:date>2012-10-28T17:38:40+09:00</dc:date>
    <utime>1351413520</utime>
  </item>
    <item rdf:about="https://w.atwiki.jp/iruka0913/pages/25.html">
    <title>memo システム評価実験</title>
    <link>https://w.atwiki.jp/iruka0913/pages/25.html</link>
    <description>
      ** システム基礎機能評価実験

*** プロジェクタパラメータ計測実験
- &#039;&#039;実験目的&#039;&#039;
-- 投影距離と投影スクリーンサイズの関係式を導出する
-- 投影距離Dのときの原点W(0,0,0)としたスクリーン座標（位置/サイズ）
--- 軸の入れ替え/移動と拡大率変更
- &#039;&#039;実験設備&#039;&#039;
-- テーブル
-- 壁
-- 水平検出器（テーブルが水平か確認する）
- &#039;&#039;実験手順&#039;&#039;
-- 距離を10段階程度に分割
-- 距離D(i)におけるスクリーンサイズを記録する：縦，横
-- スクリーンの位置ずれについても記録する：水平に置いたとき，スクリーンが上目に投影されるようになっている気がする
- &#039;&#039;ポイント&#039;&#039;
-- 光源から直線的に投影されるわけではなさそう
--- 投影する画像：背景原色のグリッドライン入り

*** Wearable Comfort Rating Scale(2012.10.26)
- 6項目の質問から成る：0(low)～10(high)
- &#039;&#039;① Emotion｜印象&#039;&#039;
-- 印象，見た目，緊張，イライラ
-- Emotions, concerns about appearance and relaxation
-- I am worried about how I look when I&#039;m wearing this device. I feel tense or on edge because of wearing the device.
-- このデバイスを装着することで，周りにどう見えるか気になる．装着することで緊張したりイライラする．
- &#039;&#039;② Attachment｜装着&#039;&#039;
-- 身体に装着する際の物理感覚
-- Physical feel of the device on the body, attachment
-- I can feel the device on my body. I can feel the device moving.
-- 身体にデバイスが装着されていることが気になる(気付く)．デバイスが動くのを感じる．
- &#039;&#039;③ Harm｜痛み&#039;&#039;
-- 物理的な影響，身体への害
-- Physical effect, damage to    </description>
    <dc:date>2012-11-05T00:18:31+09:00</dc:date>
    <utime>1352042311</utime>
  </item>
    <item rdf:about="https://w.atwiki.jp/iruka0913/pages/24.html">
    <title>memo 中間審査会原稿</title>
    <link>https://w.atwiki.jp/iruka0913/pages/24.html</link>
    <description>
      *** タイトルページ
- P.1
- &#039;&#039;(speak)&#039;&#039; それでは，これから藤波研究室の村田が発表させていただきます．~
タイトルは「ウェアラブルプロジェクタを用いた歩行に関する支援情報提示システムの開発」です．~
よろしくお願いいたします．

*** &amp;color(gray){見出し:}【本研究の背景と目的】
- P.2
- &#039;&#039;(speak)&#039;&#039; まず，研究の背景と目的について説明します．

*** &amp;color(gray){背景1:}【超高齢化社会の到来と介護予防の社会問題化】(P.1)
- P.3
- &#039;&#039;(speak)&#039;&#039; 近年，世界規模で高齢者の数が増加しています．~
日本でも，65歳以上の人の割合が23%を越え，ついに超高齢社会が到来しました．~
今後もその数は増えることが予想されています．~
それに伴って，介護が必要な人をなるべく減らそう！という「介護予防」の考え方が社会全体の課題になってきています．~
中でも，特に歩行能力というのは，高齢者の生活空間を維持する上で非常に重要です．~
しかし，加齢とともに人間のあらゆる機能というのは衰えていきます．~
放っておくと，自然と歩行能力も低下していくことになります．~
そのため，高齢者が歩行能力の低下防止に努めることは極めて大切なことだと考えられます．

*** &amp;color(gray){背景2:}【現状の歩行訓練の問題点】(P.2)
- P.4
- &#039;&#039;(speak)&#039;&#039; 現状では，歩行能力低下防止の手段として，セラピストによる徒手訓練が行われています．~
また，トレッドミルなどに代表される大型の歩行訓練機器も利用されています．~
（クリック）~
しかし，これらの方法にはそれぞれ問題点があります．~
前者では，セラピストが付きっきりで監視する必要なので，人的コストが非常に高いことが問題となります．~
後者では，機器の値段が高く，広い設置場所が必要なのであまり数を確保できないという問題があります．~
このような理由から，介護予防が必要とされる高齢者にとって適切な歩行訓練が実施できる環境は充分でないというのが現状です．

*** &amp;color(gray){目的1:}【本研究の目的と意義】(P.3)
- P.5
- &#039;&#039;(speak)&#039;&#039;     </description>
    <dc:date>2012-09-30T02:35:00+09:00</dc:date>
    <utime>1348940100</utime>
  </item>
    <item rdf:about="https://w.atwiki.jp/iruka0913/pages/23.html">
    <title>Memo 画像変換機能の実装</title>
    <link>https://w.atwiki.jp/iruka0913/pages/23.html</link>
    <description>
      **画像変換についてのメモ

- &#039;&#039;OpenCvによる画像変換の流れ(2012.10.23)&#039;&#039;
-- &#039;&#039;基本的な処理方針&#039;&#039;
--- サーフェイスビューでViewを作成
--- 画像はBitmapで読み込み
--- BitmapをMat型に変換
--- Mat型の画像データをOpenCVのメソッドで処理
--- Mat型のデータをBitmapに再変換
--- canvasのメソッドでViewに描画
-- &#039;&#039;OpenCVメモ&#039;&#039;
+++ 使用しているのはAndroid OpenCV2.4.0
+++ プロジェクトとライブラリのリンクはProperty-&gt;Android-&gt;Libraryから．Build-Pathからだと上手くいかないらしい~
[[Eclipseでのプロジェクト生成の解説:http://dokumaru.wordpress.com/2012/05/02/how_to_build_face_detection_sample_with_opencv_2_4_for_android/]]
+++ Bitmap&lt;--&gt;Matの変換は注意が必要：[[BitmapToMat &amp; MatToBitmapを使う際の注意点 OpenCV Java API for Android:http://micchysdiary.blogspot.jp/2011/10/bitmaptomat-mattobitmap-opencv-java-api.html]]
+++ ホモグラフィを見つけるメソッドはfindHomography(src, dst)メソッド．~
MatOfPoint2f::src :入力画像の座標群~
MatOfPoint2f::dst :出力画像の座標群~
帰り値 :ホモグラフィ行列
+++ 変換を適用するには別のメソッドが必要：

- &#039;&#039;ハードウェアアクセラレーションの検討(2012.10.23)&#039;&#039;
-- [[ハードウェアアクセラレーションを使用する(1):http://techbooster.org/android/application/7054/]]


- &#039;&#039;画像変換の流れ&#039;&#039;
++ プロジェクタの姿勢P(r,p,y)を計測し，回転行列Rを求める
++ プロジェクタの設置高Hと姿勢Pから，    </description>
    <dc:date>2012-10-23T21:08:40+09:00</dc:date>
    <utime>1350994120</utime>
  </item>
    <item rdf:about="https://w.atwiki.jp/iruka0913/pages/22.html">
    <title>Memo システム実装</title>
    <link>https://w.atwiki.jp/iruka0913/pages/22.html</link>
    <description>
      ** システムの実装に関するメモ

- 足圧センシングモジュール第1号完成(2012.10.12)
-- Arduino-Pro-miniで感圧センサを制御，BluetoothMateで通信
-- はんだ付け完了．リチウムポリマー電池で動作確認．PCで動作確認．Androidで動作確認．
-- 電源は入っているのにデータが送られてこなくて焦る．通信速度変更が反映されていなかったぽい．~
CMDモードで通信速度の設定をしたら，RESETかもう一度プログラムを入れ直さないといけない??
-- ケースはTALESEA的なものを作る．もう少し柔らかい素材はないだろうか．
-- どうやって靴に取り付けるか考える．個人靴に装着する場合を考えて，中敷きにくっつけられないか -&gt; ダイソーで中敷き購入．

- 画像の描画
-- 候補：OpenCV, OpenGL ES
-- 最初からOpenGLは利用可能なようなので，そちらにするか．高速描画もできるようだし．

- 画像描画に要求される項目
++ 画像が描画できる
++ 画像を移動させることができる
++ 画像を変形させることができる（射影変換）

- 画像をどうやって台形補正するか
-- CanvasのdrawBitmapMesh関数を使う：[[Android(Java)を始める – 画像の自由変形:http://sakef.jp/blog/2011/02/android04_image_translation/]]
-- OpenGL ESで視点を変える：[[iPhone上でOpenGL ESを使って台形補正に挑戦（その2）:http://studio.tgl.jp/blog/?p=828]]~
端末姿勢(r,p,y)に対して，逆変換(-r,-p,-y)をかけると台形補正画像が完成する

- 画像変換のコンセプトメモ(2012.09.21)
-- ある画像Aを大きさS(Sx,Sy)cmで位置L(Lx,Ly)cmに投影したい
-- そのためには，現在のプロジェクタの高さHcm，姿勢(R,P,Y)degを把握する必要がある
-- サイズを決める｜位置を決める｜画像を回転させる：どの順番で行えば良いか？
+++ サイズを決める：実世界での投影スクリーンサイズ(垂直投影面)から決    </description>
    <dc:date>2012-10-20T20:38:28+09:00</dc:date>
    <utime>1350733108</utime>
  </item>
    <item rdf:about="https://w.atwiki.jp/iruka0913/pages/21.html">
    <title>memo プロポーザル構成</title>
    <link>https://w.atwiki.jp/iruka0913/pages/21.html</link>
    <description>
      ** 修士研究プロポーザルの構成

*** 1) 研究背景
- 歩行能力維持の重要性
-- 高齢者の増加と介護予防の重要性

- 現状の高齢者の歩行訓練の問題点
-- 専門機器(数不足｜高コスト｜場所が固定)
-- セラピスト(人不足｜監視)

- 歩行支援への需要



----


*** 2) 研究目的
- &#039;&#039;装着型プロジェクタを用いた床上情報提示による歩行支援の実現可能性を明らかにする&#039;&#039;

- 本研究の焦点
-- 装着型プロジェクタシステムの高齢者への適用可能性


----


*** 3) コンセプトデザイン｜装着型プロジェクタを用いた自主歩行訓練支援
- 対象者
-- 介護予防が必要とされる高齢者｜自立歩行能力はあるけれども，今後低下が懸念される高齢者

- システムの目的
-- 歩行能力維持のための自主歩行訓練支援

- コンセプト図
-- 装着者
-- 装着型センサ：歩行状態の計測｜加速度，角速度，圧力センサ
-- 装着型プロジェクタ：情報提示デバイス
-- スマートフォン：処理端末

- フロアプロジェクションによる歩行安定化
-- 歩行する上でより良い歩行にするために必要な要素は多い
--- 歩幅，歩行速度，体重心バランス，足圧内バランス，腕の振り，足の角度，歩行時の姿勢
--- 今回は，&#039;&#039;歩幅&#039;&#039;の制御に焦点を当てる

- なぜ装着型か

- なぜ視覚情報か

- なぜプロジェクタか
-- 情報提示場所と歩行空間が一致している：注意分散がしやすいのではないか

- プロジェクタ装着位置
-- 投影画像の揺れ=見易さ，装着感を考慮する必要がある
--- 既存研究：Ota, et al(2011).
--- セラピストからの意見
-- &#039;&#039;胸部&#039;&#039;に装着することとした

----


*** 4) プロトタイプ実装の構想｜フロアプロジェクションによる歩幅制御機能の実装
- 目標とする歩幅制御とは
-- 歩行中，次に出す足の場所を視覚情報として提示する
-- 歩行者は床上のマークを手がかりにして(踏む｜越える)歩行する

- 提示情報案
-- 足形マーク
-- 水平線
--- 比較すべきか｜比較することで何    </description>
    <dc:date>2012-08-01T06:26:12+09:00</dc:date>
    <utime>1343769972</utime>
  </item>
  </rdf:RDF>
