yoppa.org


メディア芸術の基礎 2017 – 東京工科大学

第13回: 音響と映像の融合 – Processingで音を可視化する 2

今回も前回に引き続きProcessingによる音の可視化について探求していきます。今回は最終課題を見据えて、より実践的なプログラムをいくつか紹介していきます。

スライド資料

サンプルプログラム

本日使用したプログラムのサンプルは、以下からダウンロードしてください。

最終課題について

次回(24日)の講義で、最終課題を発表を希望する方は、以下から申し込みしてください。

最終課題: Processingを用いた音響の視覚化

Sonic Piを用いて生成した音響作品をProcessingで視覚化した、30秒から1分程度のオリジナルのオーディオ・ビジュアル作品を制作してください。

提出物:(重要!!)

  1. 音を生成したSonic Piのプログラムソース
  2. ビジュアルを生成するProcessingのプログラムソース
  3. Processingプログラムのスクリーンショット (一番かっこいい瞬間を捉える!)

締切

2017年7月31日

提出方法

3つの提出データ(Sonic Piソース、Processingソース、スクリーンショト)を圧縮せずにメールに添付して提出。その際に以下の情報もあわせて本文に入力してください。

  1. 作品タイトル
  2. 学籍番号
  3. 氏名

提出先

tadokoro+teu17@gmail.com

課題制作テンプレート

minimのFFTを使用した音響の可視化のプログラムのテンプレートです。課題制作に利用してください。

import ddf.minim.analysis.*;
import ddf.minim.*;
Minim minim;
AudioPlayer player;
FFT fft;

//FFTサイズ (2の冪乗で指定)
int fftSize = 512;

void setup() {
  size(800, 600);
  //minim初期化
  minim = new Minim(this);
  //サウンドファイル読み込み
  player = minim.loadFile("recording.wav", fftSize);
  //サウンドファイル再生
  player.loop();
  //FFTの初期化
  fft = new FFT(player.bufferSize(), player.sampleRate());
}

void draw() {
  background(0);

  //左チャンネル
  fft.forward(player.left);
  for (int i = 0; i < fft.specSize(); i++) {
    //スペクトラムデータは -> fft.getband(i);
  }

  //右チャンネル
  fft.forward(player.right);
  for (int i = 0; i < fft.specSize(); i++) {
    //スペクトラムデータは -> fft.getband(i);
  }
}