BNNから出版されているProcessing:ビジュアルデザイナーとアーティストのためのプログラミング入門の電子書籍が発売されました。
(電子版)Processing―ビジュアルデザイナーとアーティストのためのプログラミング入門
紙版は7000円(+税)で電子版は6300円(+税)ですが、8月末まで3600円(+税)の特別価格となっています!
BNNから出版されているProcessing:ビジュアルデザイナーとアーティストのためのプログラミング入門の電子書籍が発売されました。
(電子版)Processing―ビジュアルデザイナーとアーティストのためのプログラミング入門
紙版は7000円(+税)で電子版は6300円(+税)ですが、8月末まで3600円(+税)の特別価格となっています!
インスタレーションやデジタルサイネージ等のように、大型ディスプレイや空間的に配置した複数のディスプレイでインタラクティブなシステムを動かすシミュレーションができるよう、3Dの仮想空間の中でProcessingを表示できる仮想ディスプレイとその仮想空間を撮影する仮想カメラを実装してきました。
その発端とも言えるCityCompilerは仮想空間はjMonkeyEngineを使いましたが、3D仮想空間もProcessingにしたのがProcessinglueです。
[CityCompiler Examples on Vimeo]
以前からソースコードはgithubで公開していたのですが、Processing2.xではデバッグがしづらくいつもEclipseでProcessingを使っていたこともあり、Eclipseで使うプロジェクトとして公開していました。
Processingがヴァージョンアップしてデバッグが出来るようになり使い勝手も上がったので、Processingのライブラリとしてインポートしやすいよう、Processinglueをビルドし直しました。
[https://github.com/yasutonakanishi/Processinglue]
ビルドにはProcessingのLibrary Templateを使いました。
[https://github.com/processing/processing-library-template]
使い方は英語で書いてあるとおりですが、日本語で解説されたサイトがなかったので、参考程度に手順をメモしておきます。
Eclipseへのインポートの仕方はOption Bでやりました。ダウンロードしたzipファイルを解凍せずにEclipseのプロジェクトにインポートします。EclipseでProcessingを使えるようにすべく、core.jar等の必要なライブラリを追加します(この作業は、こちらなどを参考にしてください)。仮想カメラはCaptureクラスのサブクラスとして実装しているので、Videoライブラリのjarも3つ追加します。build.propertiesを自分のライブラリ用に設定し、サンプルとして付いてくるHelloLibrary.javaをAntでビルド出来て、そのライブラリを使うHello.pdeを実行できれば、準備完了です。あとは、自分のライブラリのためのコードとそのサンプルを追加していきます。参考までに、Eclipseのプロジェクトの画面をのせました。
サンプルは2つ作りました。一つ目は、Processingを仮想ディスプレイに表示して、スケール感が分かるようにそれを眺めるC3-POを置きました。ディスプレイの大きさや位置をcontrolP5で変えながら、コンテンツのProcessingをプロトタイピングしてゆくような例になっています。二つ目は、飛んでいるアイアンマンを眺めているC3-POを仮想カメラで撮影しその画像を背後の仮想ディスプレイに表示、というのを作りました。仮想空間の中でもビデオフィードバックが起きています。
2013/3から2014/3まで、StanfordのCDRにVisiting Scholarとして滞在しました。同時期にStanfordに滞在した人達の文章をまとめて出版しましょう、という企画がCDRの同僚だった近畿大学の廣田さんから持ち上がっていました。この企画、諸般の事情でまだ進行中なのですが、帰国してもう2年が経ってしまったこともあり、まずはこちらのサイトで自分の原稿だけ公開させてもらうことにしました。
このサイトの他のエントリーを編集したような内容になっていて、写真をそれらで見つつ合わせてお読みいただくとイメージが湧きやすいと思います。
2012-2013 ME101: Visual Thinking
Teamwork for Radical Collaboration at d.school
50 years in the Making
スポーツと働き方とお国柄
2013-2014 Winter semester (1) ME115B
2013-2014 winter semester (4) EE92A
12月に二つのハッカソン・ワークショップのお手伝いをしました。
ひとつ目は、研究室OBである竹中工務店の粕谷貴司君が主催しているスマートライフハッカソンです。
電気や照明、音響やスマート家電などのビルの設備を制御するAPIをUnityで作ったプログラムから制御できる「ビルコミ3D」というライブラリを使ったハッカソンです。
Unityに3Dモデルを読み込んでそこに配置したオブジェクトを制御すると、実際のビルの中のオブジェクトも制御されるように作られています。東大のグリーンICTプロジェクトのサポートによって弥生キャンパスのI-REF棟をプラットフォームとすることで、作ったプログラムが実際の空間の中で動くかを検証しながらハッカソンを進めていきます。
第1回から審査委員長を中西が務めさせていただいていて、12/12・13に第3回が開催されました。そのままオフィスで運用できそうな機能的なシステムから、オフィスをゲームの舞台にしてしまうシステムまで、広がりのアイデアが提案され実装されていました。
今時の言葉で言えばIoTやスマートスペース、少し前のキーワードであればユビキタスコンピューティングやCyber-Physical Systemの開発をゲームエンジンで行うという枠組みは、中西研でずっと研究してきたCityCompilerと同じ枠組みです。ビルコミ3Dではそれが実際のビルを対象として、機能的なビルとその中のアクティビティをデザインし開発できるようになりました。研究として行っていたようなことが、社会の中に出て行こうとしている様子を見ることができ、感慨深くもあります。
ふたつ目は、LA在住のコンピューテーショナル・デザイナー杉原聡さんが開発したProcessingと建築用ライブラリiGeoのワークショップです。
Processing:ビジュアルデザイナーとアーティストのためのプログラミング入門
を日本語化するにあたって日本人クリエイター4人へのインタビューを追加しましたが、杉原さんはその原稿をお願いしたお一人です。東工大でComputer Scienceを専攻し、かつてジョン・前田も在籍した国際メディア財団でメディアアート作品などを作っていた杉原さんは、一念発起してUCLAで建築を学び、Morphosisで実務を経験し、コンピューテーショナルデザインによってさまざまなビルのファサードを実作されている先端的な建築家です(現在はご自身の設計事務所ATLVを主宰)。
そして、ご自身がファサードのデザインを実践するために作ったライブラリを惜しげもなくオープンソースで公開しているのがiGeoです。
[iGeo]
杉原さんが年末に日本に戻られるということで、iGeoのワークショップを初めて日本で開催しました。ワークショップには建築の実務に携わっている方、建築を学んでいる学生、グラフィックデザインやプロダクトデザインの実務に関わっている方など30名ほどの方が参加されました。開催場所はグローバルに活動されているデザインコンサルティングファームziba tokyoのオフィスのオープンスペースを提供していただきました。
中西は運営の手伝いをしながら、iGeoを使ってエージェントベースのコンピューテーショナルデザインを実際にプログラミングしました。エージェントを使った形態生成では、自分でアルゴリズムを組んで形態を生成する以上に、自分の想像を超えたモノが立ち現れます。自分が制御できる部分と自分では制御できない部分のせめぎ合いを楽しみながら、自分のコントロールを捨て去ったところに新しい形態が現象する感覚を味わうことができました。
そうした感覚を短いコードですぐに体験できるのがiGeoの素晴らしいところです。杉原さんが講師を務めているSci-Arcという大学では14回の講義をかける内容を超高速で2日間進めたにもかかわらず、参加者のみなさん全員がコンピューテーショナルデザインを実践しておられました。とても濃密なワークショップでした。
アメリカやヨーロッパの大学では開催されていましたが、このタイミングに合わせてドキュメントも日本語化されました。多くのユーザの方にiGeoを使ったコンピューテーショナルデザインを体験してもらいたいと思います。
[iGeo 日本語チュートリアル]
スマートライフハッカソンならびにiGeoワークショップに参加いただいた皆さん、場所を提供いただいたziba tokyoの皆さま、どうもありがとうございました!
11月の20(金)から21(土)まで六本木ミッドタウンを中心に慶應義塾大学Open Research Forumが開催されました。
2年生を中心にしたグループワークでORFに向けて一ヶ月でプロトタイピングした二つのシステムを展示して色々な方にコメントをいただきつつ、
これまでに進めてきた研究プロジェクト
・DreamDate
・BabyBumper
・FaceShadowing(Futuroid#1)
・TracePlayer(Futuroid#2)
はポスターでその内容をご説明しました。
さらに、小説家の平野啓一郎さんにお出でいただき「分人主義とFuturoid」というテーマで、トークセッションを開催しました。インターネットやSNSなど新たな空間を作り出すコミュニケーション技術の発達と普及によって、近代の基盤となっている”個人”という概念がゆらぎつつある中で、新しい生き方としての「分人」と新しい自分を作り出すための技術である「Futuroid」の関連について語り合いました。分人主義について知りたい場合はこちらがおススメです。
私とは何か――「個人」から「分人」へ (講談社現代新書)
ご来場いただきブースやトークセッションに足を運んでいただいた皆様、どうもありがとうございました。
監訳を担当しました「Processing:ビジュアルデザイナーとアーティストのためのプログラミング入門」が出版されました。値段は少し高いですが、、凡そ670ページにも渡る素晴らしい内容の本です。
プログラミングの入門書としてだけでなく、CGやメディアアート、インタフェースの歴史、一線のクリエイター達のインタビューが散りばめられていることが、本書の大きな価値だと思います。Processingという道具を使って何を作るか?自分自身でProcessingをどう拡張していけるのか?プログラミングをするとはどういうことか?について、自分の考えを深めるきっかけとなることでしょう。
多くの皆さんに読んでもらえることを願っています!
学部生4人でプロトタイプを繰り返した”BabyBumper”を国際会議ACM Ubicomp2015でポスター発表してきました。日本の都市部の交通機関は他の国々よりも特に混雑していて、妊婦さんにはハードな状況であることから、お腹の中の赤ちゃんのためのエアバッグを試作しました。色々な方に面白くかつ役に立つアイデアだと言っていただけました。
論文と紹介ビデオはこちらから。
[BabyBumper: protector/communication wearable device for pregnant women, in ACM digital library]
FaceShadowingにおいて、練習者が将来行うであろう動作を手本の動作から自動生成したことが、このフューチャロイドという概念を作り出す契機になりました。FaceShadowingがFuturoid#1だとすれば、Futuroid#2とも言えるのがこのTracePlayerというシステムです。
フューチャロイドの研究においては「身体的なスキルの向上」や「身体的な健康の増進」を目的に「ユーザが求める将来像へと自身を近づけてゆくためのシステム」を開発します。その概念をスポーツに適用したのがこのシステムです。子供は憧れのプレイヤーの真似をしながら遊んだり、その遊びの延長としてスポーツのトレーニングをすることがあるでしょう。空間にどのような情報を提示したり、どのような媒体でその憧れの選手の動きを表現すれば、子供たちはより良く真似ができるでしょうか?
その問いへの答えとして、スポーツにおける上級者の身体動作を学習者に伝える新しい方法を構築すべく、舞踊の記譜法を用いて身体動作を床面に表記し、それを学習者自身が再生しさらに他者が再生する様子を学習者が観察できるシステムを構築しています。
記譜法として舞踊におけるラバノーテーションを、そしてそれを再生する他者として移動ロボットを用いることを提案し、その基礎的な検討としてカラーセンサを用いたライントレーサの試作を繰り返しています。移動の軌跡とリズムの変化を表すカラーテープを最小限のノーテーションと考え、ライントレーサが白線の上を移動し青・赤のテープにより加速・減速をすることで、サッカーやバスケットボールにおけるドリブルのような身体的なリズムを伴う身体技能の伝達と獲得のための物理的なメディアとして機能すると考えています。
英語の発音のトレーニング方法にシャドーイングと呼ばれる方法があります[シャドーイング – Wikipedia]。シャドーイングには幾つかの手法があり、第二言語の習得に効果のある方法だとされています。
その一方で、日本人が英語の発音を良くするにはネイティブの顔・口・舌・喉などの筋肉の動かし方をマスターする必要がある、という考え方があります[英語舌のつくり方 ――じつはネイティブはこう発音していた!]。
こちらのWebの記事[複数の言語をマスターするコツは「別の人格」を演じること]もそうした学習方法のあり方を示唆しています。私自身も英語の個人レッスンを受けていた時に、先生の口や唇の動きを真似るようにと良く言われました。
しかし、人種が違うと顔の骨格や唇の形もだいぶ違うために、自分がそうした動きをしている様子をイメージすることが難しい、という問題がありました。
そこで、画像処理を使ってネイティブスピーカーの顔の動きを検出し、その動きで自分の顔を動かすことが出来れば、発音が良くなった状態の自分をイメージしやすくなるのではないか?と考えました。
そうした顔を中間顔と名付け、openFrameworksを使ってシステムを実装し、単にネイティブスピーカーが話す動画を用いたシャドーイングと、提案する仮想的な自身の将来像も併用するシャドーイングとで、発音が良くなっているかどうかを比較する、という研究を行いました。下の図がシステムの画面です。左が学習者、右がネイティブスピーカー、真ん中が中間顔です。
3月にAugmented Humanという国際会議に論文が採択されて口頭発表を行い、4月には日刊工業新聞に取り上げていただきました。
[語学力習得で表情手本に-慶大、英会話教師の話す表情をリアルタイムに生徒の顔に合成]
カメラやセンサを使って上級者の動きを計測し、それを学習者の特徴に合わせて仮想的な将来像を作るシステムのことを私たちは「Futuroid」と名付けました。
大阪大学の石黒浩教授らが構築しているジェミノイド(Geminoid)は人間に酷似した外見を持つアンドロイドです。この”ジェミノイド(Geminoid)”という言葉は「双子」を意味する「ジェミニ(Gemini)」と「〜のような」を意味する「-oid」からの造語で、私達の研究で用いる”フューチャロイド(Futuroid)” という言葉は、将来を意味する「Future(フューチャー)」と「-oid」を下にした造語です。
このシャドーイングの研究はそうした具体的なシステムの#1です。#2としてサッカーのドリブルの練習をするためのロボットを開発しています。こちらはまだまだ開発途中ですが、#3や#4も考えて行きたいと思っています。
イギリス人のウォルポール伯爵が創り出した「セレンディピティ」という言葉は,「偶然と才気(すぐれた頭のはたらき)によって,さがしていなかったものを発見する」ことを意味しています.
自分が作ってきたシステムや作品を説明する時にセレンディピティについてよく言及しますが,もともとが造語であることもあって辞書によって定義が違うこともあるようです.
幾つかの書籍を読んで,いちばんクリアな説明と思ったのは,
セレンディップの三人の王子たち―ペルシアのおとぎ話 (偕成社文庫)
の訳者である竹内 慶夫さんの解説にあった以下の内容でした.
「セレンディピティ」を明確に定義づける三つの重要な要素を見いだすことができます。それは、(一)偶然と(二)才気によって(三)さがしていないものを発見すること、です.ここに、セレンディピティということばの意味を考える原点があります。
(中略)
科学技術の発見には、このような場合がひじょうに多く、ペニシリンが抗生物質をさがしていた研究者によって、偶然がきっかけで発見されたのは、その代表的な例です。
セレンディピティ的発見の鍵は、偶然を生かすことができるかどうかで、それは実験や観察をする人たちの心がまえしだいです。なにごとかに集中する意識があって、周囲のできごとを注意ぶかく観察し、それに瞬間的に無心に反応する心がつねにそなわっていることが必要です。先入観は禁物です。これがセレンディピティ的発見の必要条件とすれば、気づいた偶然を解析する能力と根性をもっていることが十分条件といえるでしょう。
いままでの例にあげたように、セレンディピティは科学の分野のみで注目されているかのような印象を受けます。しかし,そもそもウォルポールの手紙にみられるように、彼が「セレンディピティ」の定義に使った例は、ラクダの話にしても、シャフツベリ卿の話にしても、これに似た例はわれわれの日常生活におこりうることなのです。
このことは、心がまえひとつで、私たちも日常生活のなかでセレンディピティに遭遇しても不思議ではないことを意味しています。自分をみがき、いま述べたセレンディピティ的発見の必要条件にかなった性格さえ身につければ、だれでもセレンディピティを体験できるはずです。
(太字はこのエントリー投稿者による)
セレンディピティを定義づける要素は三つあり,そしてセレンディピティ的発見には必要条件と十分条件の両方がある,という説明は竹内慶夫さんが鉱物学者であったこともあり,とても明確ですね.セレンディピティ的発見をした後には解析する能力と根性を持っていないといけない,という辺りは,金出先生の「素人のように考え、玄人として実行する」にも通じるでしょう.
様々なエピソードを持って語られる「セレンディピティ」ですが,三つの要素と二つの条件によって,それぞれのエピソードを比較することが出来そうです.