Processingによるアニメーション
今回も、前回に引続きProcessingの基本を学びます。前回導入を行ったアニメーションの基本をさらに改良して、たくさんの図形を同時に動かす方法について考えていきます。
今回も、前回に引続きProcessingの基本を学びます。前回導入を行ったアニメーションの基本をさらに改良して、たくさんの図形を同時に動かす方法について考えていきます。
この授業の終盤は、SuperCollider単体で使うのではなく、他のソフトウエアと連携して使用します。SuperCollider単体でグラフィクスを生成することも可能ですが、あまり便利とはいえません。そこで、Processingという2Dや3Dグラフィクスの表示やアニメーションに特化した開発環境を導入します。サウンドをSuperCollider、グラフィクスをProcessingと分担して、オーディオビジュアルなプロジェクトの作成を目指します。
今回も引き続き、OpenSoundControl(OSC)を使用したSuperColliderのコントロールについて解説します。先週に引き続き、PureDataとSuperColliderの連携について考えていきます。さいご に次回の導入として、Processingについて説明します。
今回は、作品制作の参考となりそうなトピックスとして、ネットワークを活用したサンプルを紹介します。まず始めに、Open Sound Control(OSC)というプロトコルを使用して、openFrameworksのアプリケーション同士をネットワークを介して通信する方法について解説します。これにより、ネットワークを介して複数のユーザが1つのアプリケーションを操作することが可能となります。またopenFrameworksのアプリケーションを他のアプリケーション、例えば、Max/MSPやPd、SuperCollider、さらにはTouchOSCといったiPhoneアプリなどからコントロールすることが出来るようになります。
後半はこのOpen Sound Controlをさらに応用した、reacTivisionというタンジブルなユーザインタフェイスを制作するためのフレームワークを紹介します。reacTIVisionとofxTuioを組合せてることで、reacTIVisionの強力なタンジブルなマーカーの読み取りシステムを、openFrameworksで活用することが可能となります。
今回から数回にわたって、SuperColliderと他のアプリケーションとの連携について取り上げます。例えば、Max/MSPやPdなどのアプリケーションでGUIを作成して、音はSuperColliderから生成したり、ProcessingやopenFrameworksなどのアプリケーションで、SuperColliderの音を視覚化したりといったことが可能となります。連携にはOpenSoundContorol (OSC) というプロトコル(通信の方式)を使用します。今回は、このOSCについて考えていきます。
今回は、INVADER衛星を題材に、衛星の軌道を取得して3D空間への描画に挑戦します。そのために必要となる、人工衛星の軌道についての基礎知識と、より正確な軌道の推定のためのアルゴリズムであるTLEとSGP4について解説し、その上で実際にプログラミングで表現してみます。
講義内で使用したサンプルプログラムは全てGithubで公開します。下記のリポジトリを参照してください。
この授業では、jQuery、canvas、WebGLなど、Webに関係する様々な技術を紹介してきました。今回は、これまで触れてこなかった、それ意外の様々なJavaScriptのライブラリを紹介していきます。