yoppa.org


TouchDesigner中級編(2) – オーディオリアクティブ表現 (1)

TouchDesigner入門(4) – 音楽に連動させよう! の回では、音楽の音量に反応させて図形を描く基本を学習しました。今回から数回は、このテクニックをさらに応用して、音の様々なパラメータを解析したビジュアル表現について探求していきます。まず初回の今回は、音量による反応をより詳細に取り上げていきます。

今回の内容は、比嘉了さんによる東京藝術大学での講義「映像音響処理概説 2019」の「第11回: 音反応」を参考にしています。

参考映像

[triggering2018] Live performance for new 3 tracks (demo ver.)
Alva Noto – unitxt/univrs (Derivative Version)
[CHANNEL13] Daisuke Tanabe x HEXPIXELS

スライド資料

サンプルファイル

本日の課題

今回の講義資料およびサンプルプログラムを参考にして、音に反応して変化するグラフィック表現をTouchDesignerで行ってください。

課題提出 + アンケート

本日の課題の提出は下記から行ってください。


動画生成AIを使ってみる

本日は、生成AIを利用した動画生成に挑戦します。まず始めに現状の動画生成AIの状況について解説します。その上で現在利用可能な様々な動画生成のサービスとその特徴を紹介し、実際に動画生成を体験してみます。最後に参考として無料で利用可能な動画編集アプリケーションを紹介します。

スライド資料

本日の内容

  • 生成AIによる動画の生成に挑戦
  • 様々な動画生成AIサービスを紹介
  • 実際に使用してみる
  • フリーの動画編集アプリの紹介

生成AIによる動画の生成に挑戦

現状での動画生成AIの注意点

  • 画像生成AIと同様、様々なサービスが公開されている
  • しかしながら、フリーで制限無く利用できるサービスは少ない印象
  • 日々進化しているので、今回の情報も来年には古くなっている可能性大

数年前までのAIによる動画生成状況

Deep Dream by Google (2015)

Memo Akten, Journey through the layers of the mind (2015)

Neural style transfer

Memo Akten, Learning to see: Gloomy Sunday (2017)

Sora AI の衝撃!

  • Sora AI: OpenAIが開発した動画生成AIモデル、2024年2月発表
  • テキストプロンプトから高品質な動画を生成
  • ディフュージョンモデルを活用し、連続性と詳細な映像を実現
  • 一般公開は未定で、現在はクリエイターや映画製作者と協力し、フィードバックを収集中

Sora AIのデモ動画

Playlist – Sora by Open AI

プレイリストからいくつか抜粋

air head · Made by shy kids with Sora
Tammy Lovin · Sora Showcase
Niceaunties · Sora Showcase

別の動画生成AI (Runway ML) による短編映画

Battalion – My First Ever 5 Minute Gen AI Short Film

主要な動画生成サービス

参考: (まだ一般には非公開)

Dream Machine by Luma AI

Luma AIの「Dream Machine」は、テキストや画像から高品質な動画を生成するAIツール。ユーザーはプロンプトを入力するだけで、最大5秒間のリアルな動画を簡単に作成可能。無料プランでは月30回の動画生成が可能で、商用利用には有料プランへの登録が必要。

Gen-3 Alpha by Runway

Runwayの「Gen-3 Alpha」は、テキストや画像から高品質な動画を生成するAIツールである。ユーザーはプロンプトを入力するだけで、最大10秒間のリアルな動画を簡単に作成可能だ。無料プランでは利用できず、有料プランへの登録が必要である。

Pika 1.5 by Pika Labs

Pikaは、AIを活用した動画生成プラットフォームである。ユーザーはテキストや画像を入力することで、短い動画を自動的に作成できる。特に、3Dアニメーションやカートゥーンスタイルの動画生成と編集が可能で、直感的なユーザーインターフェースを備えている。また、Discord上で動作し、無料で利用可能である。

Kling Video 1.5 by Kling AI

Kling Videoは、中国の動画共有プラットフォーム「快手(Kuaishou)」が開発した動画生成AIツールである。ユーザーはテキストや画像を入力することで、最大10秒間の高品質な動画を生成可能だ。解像度は1080p、フレームレートは30fpsに対応し、物理法則の理解や複雑な動作の正確なモデリングに優れている。また、メールアドレスでの登録により、世界中のユーザーが利用できるようになった。

ノードベースで動画生成できるツールも

Comfy UI

その他にもいろいろなサービスが!

参考: The 9 best AI video generators in 2024

  • Runway for generative AI video
  • Descript for editing video by editing the script
  • Wondershare Filmora for polishing video with AI tools
  • Capsule for simplifying video production workflows with AI
  • Fliki for social media videos
  • Peech for content marketing teams
  • Synthesia for using digital avatars
  • Vyond for animated character videos from a prompt
  • Visla for turning a script into a video

実習: 動画生成AIを使ってみる

どの動画生成AIを使うか?

無料で使用したい!

Luma AI Dream Machineがおススメ

  • プロンプトから生成
  • 画像をアップロードして続きの動画を生成
  • 生成した動画の結果から、さらに次の動画を生成
  • いろいろ試してみましょう!

より本格的に動画生成を行いたい

Runway MLがおススメ

  • プロンプトから生成
  • 画像をアップロードして続きの動画を生成
  • カメラワークなどを細かく指定
  • 無料で試せる回数はごく僅か (クレジット制)

参考: Runwayによる動画生成のテクニック


Masterclass: AI film Directing in Runway Gen 3 – Create Stunning Cinematic Shots!

参考: フリーの動画編集アプリの紹介

生成した動画素材をどうやって編集するか?

しかし無料でとても高機能の動画編集アプリもあります

DaVinci Resolve

  • フリーで利用可能な動画編集アプリ
  • Ultra HD 4K (3840×2160) までの解像度に対志
  • 高度なカラーグレーディング機能

次回までの課題

制作課題:「幻覚 – バッド・トリップ」

課題:

現代の生成AI技術がもたらす映像生成の可能性を探りながら、「幻覚 – バッド・トリップ」というテーマを動画で表現してください。不安や混乱、非現実的な体験をもたらすような映像作品を制作してください。視覚的な歪みや感覚の揺らぎといった要素を取り入れ、現実と幻覚の境界が曖昧になるような演出を試みてください。

  • 映像の長さ: 5秒〜1分程度
  • 動画生成AIを使用した映像を素材にすること
  • 生成した動画を素材にして映像編集アプリで編集しても良い
  • 次回の演習で提出と発表をしていただきます!

アンケート

本日の講義に参加した方は以下のアンケートに回答してください。

アンケート


TidalCycles導入 – インストール

この演習の後半はより本格的なライブコーディングのパフォーマンスを実践します。そのために、これまで使ってきたStrudelからステップアップしてTidalCyclesというより本格的なライブコーディングの環境を使用していきます。

TidalCyclesのインストール方法はOS (Windows / Mac) によって微妙に異なります。自身が使用しているOSにあわせて以下のリンクを参照してインストールを進めてください。

※ Windowsの手動インストールがうまくできなかった方は下記の自動インストールを試してください。

インストールには非常に時間がかかります。また安定したネット接続が必要です。ネット環境が整備されている場所でじっくりと作業していきましょう。

アンケート

本日の講義を履修した方は以下のアンケートに回答してください。

※ 旧カリ「サウンドプログラミング」「環境情報デザイン」で履修の方はこちら


TouchDesigner中級編(1) – インスタンシングとカメラワーク

前回までの内容で、SOPとGeometry COMPを用いることで3Dオブジェクトをレンダリングすることができるようになりました。このやり方で複数のSOPをレンダリングすることも可能ですが、大量のオブジェクトを配置するとすぐにPCの描画性能の限界になってしまいます。

TouchDesingerの描画に使用されているOpenGLでは、ジオメトリーのコピー (インスタンス) を大量に生成してGPUで処理することが可能です。そうすることで、大量の3Dオブジェクトを一度に描画することが可能となります。この手法を「インスタンシング (ジオメトリーインスタンシング)」と呼んでいます。インスタンシングによって大量の3D形状の全体的な動きや色をコントロールして量感のある表現が可能となります。TouchDesignerの表現力を高める重要な手法となりますので、しっかりと理解していきましょう!

映像教材

【TouchDesigner初中級講座】 インスタンシングとカメラワーク #09

サンプルファイル

スライド教材

本日の課題

今日つくったプログラムを改造して以下のようなプログラムを作成してみましょう!

  • インスタンスの形状を変えてみる (円、立方体、グリッド、トーラス…)
  • 頂点情報を抽出している形状を変形させてみる
    • 立体の形状を変更
    • 立体を変形 (スケール、ノイズ)

自分なりに工夫して、美しい形状を作ってみましょう!

課題提出とアンケート

作成した課題は以下のオンラインフォームから提出してください。


「AI生成自画像」講評 / 生成芸術の歴史と未来

本日の内容

今回の「人工知能と創作」は、まず始めに課題「AI生成自画像」講評を行います。オンラインフォームから自画像をアップロードして作成した「生成自画像について」講評を行います。

次にこの課題にとりくむ中で感じた生成AIと創作に関する感想や意見をMentimeterというオンラインツールを用いてインタラクティブに対話しながらディスカッションを行います。

後半は生成AIによる画像生成を理解するためのヒントとして、生成AIが生まれる以前から現代までの生成芸術(Generative Art)の歴史を振り返り、未来に向けての展望を考えていきます。

スライド資料

「AI生成自画像」講評

「AI生成自画像」講評

提出用のオンラインフォームを作成しました!
以下のリンクからアクセスしてください。

https://x.gd/LqVoZ

  • 生成した自画像の画像ファイルをアップロードしてください (最大10枚)
  • 画像ファイル名は「学籍番号_名前_番号.jpg」の形式で保存してください
  • (例: 12345678_tadokoro_01.jpg)

生成AIによる画像生成と創作に関するアンケート

以下から回答してください

https://www.menti.com/algc36dii4ds

参加報告: ホモ・コーデンス—AI時代、人類はどう描くのか

YCAM Interlab Camp vol.5
ホモ・コーデンス—AI時代、人類はどう描くのか

10月25日(金)

  • 10:00 〜11:00 オリエンテーション
  • 11:00 〜12:00 ハンズオン:ルールで絵を描く(1)
  • 13:00 〜14:00 レクチャー:イントロダクション
  • 15:00 〜17:00 ハンズオン:ルールで絵を描く(2)
  • 17:30 〜18:30 レクチャーパフォーマンス
  • 18:30 〜19:30 クロストーク
  • 19:30 〜21:00 ネットワーキング・レセプション

10月26日(土)

  • 09:00 〜09:30 ハンズオン:Daily Coding体操
  • 09:30 〜11:00 ハンズオン:AIを使った自然言語コーディング
  • 11:00 〜12:00 クロストーク
  • 13:00 〜15:00 ハンズオン:AIを使ったコード生成
  • 15:00 〜15:30 チームメイキング
  • 15:30 〜17:30 ハッカソン「100枚の絵を描く」
  • 17:30 〜18:00 中間発表

10月27日(日)

  • 09:00 〜09:30 ハンズオン:Daily Coding体操
  • 09:30 〜15:00 ハッカソン「100枚の絵を描く」
  • 15:00 〜17:00 プレゼンテーション+講評会

生成芸術の歴史と未来

ここからは生成芸術の歴史と未来について考えていきたい。

生成芸術タイムライン (Generative Art Timelineによる分類)

  1. Pre-1850: Pre-Modern Era (近代以前)
  2. 1850-1949: Modern Era (近代)
  3. 1950s: Analog Era (アナログ時代)
  4. 1960s: Digital Era (デジタル時代)
  5. 1970s: Artist-Programmer Era (アーティスト・プログラマー時代)
  6. 1980s: Personal Computer Era (パーソナルコンピュータ時代)
  7. 1990s: Net Era (ネット時代)
  8. 2000s: Tooling Era (ツール時代)
  9. 2010s: AI Era (AI時代)
  10. 2020s: On-Chain Era (オンチェーン時代)

Pre-1850: Pre-Modern Era

70,000 BCE, Blombos Cave DrawingURLBlombos Cave Drawing

1866, John Venn’s “graphical indication of randomness”

1917, Composition with Lines by Piet Mondrian

1936, Alan Turing Describes the Turing Machine

1945 ENIAC Developed

1950s: Analog Era

1950 Alan Turing Proposes the “Turing Test”

1952, Electronic Abstractions by Ben Laposky

1956, Herbert W. Franke Begins Creating Art with an Oscillograph

1957, Max Mathews Develops MUSIC I

1960s: Digital Era

1962, Ivan Sutherland Invents “Sketchpad”

1963, Gaussian Quadratic by A. Michael Noll

1964, Hiroshi Kawano Publishes His First Algorithmic Images

1965, Computer Composition with Lines by A. Michael Noll

1965, The World’s First Computer Art Exhibit: Computergrafik by Georg Nees

1965, 13/9/65 Nr. 2 (“Hommage à Paul Klee”) by Frieder Nake

1966, CTG Pioneers Digital Generative SystemsURL copied

1966, Joseph Weizenbaum publishes ELIZA

1968, Cybernetic Serendipity Defines a Movement

1968, Vera Molnár Begins her Computer Art Phase with the “Interruptions” Series

1969, Sol LeWitt Brings His Wall Drawings

1970s: Artist-Programmer Era

1970, John Conway Publishes Landmark The Game of Life

1972, Noland Bushnell Invents First Video Game, Pong

1973, Harold Cohen Pioneers AI Art with AARON

1979, The First ARS ELECTRONICA Festival Takes Place in Linz, Austria

1980s: Personal Computer Era

1980, Digital Harmony: On the Complementarity of Music and Visual Art by John Whitney

1982, V-yramid by Nam June Paik

1986, Langton’s Ant Developed by Christopher Langton

1987, Photoshop Developed

1987, Adope Illustrator Developed

1988, Geometric Love by Masaki Fujihata

1989, Tim Berners-Lee Invents the World Wide Web

1989, The Legible City by Jeffrey Shaw

1990s Net Era

1990, Panspermia by Karl Sims

1990, The Evolution of Forms by William Latham

1991, World Wide Web goes public

1995, jodi.org by JODI

1996, Macromedia Flash 1.0 Released

1999, John Maeda publishes Design By Numbers

2000s: Tooling Era

2001, Casey Reas and Ben Fry Initiate Processing Project

2001, Inaugural Exhibition at bitforms: Casey Reas’s first public exhibition

2002, Super Mario Clouds by Cory Arcangel

2004, {Software} Structures by Casey Reas, Jared Tarbell, Robert Hodgin and William Ngan

2004, Reas Begins Process Compendium Series (2004-2014)

2005, Zach Lieberman releases OpenFrameworks v0.01

2010s: AI Era

2015, Google’s Alexander Mordvintsev Launches DeepDream

2018, Christie’s First Sale of an AI artwork

2019, MACHINE HALLUCINATION by Refik Anadol

2019, OpenAI Releases ChatGPT2

2020s: On-Chain Era

2021, DALL-E Launched

2021, Everydays — The First 5000 Days by Beeple

2021, Latent Diffusion Models Introduced

2021, The Shell Record by Anna Ridler

2023, OpenAI Releases ChatGPT 4

アンケート

本日の講義に参加した方は以下のアンケートに回答してください。

アンケート


動きを生みだす – アニメーションとベクトル

今回からいよいよ動きのある表現(= アニメーション)について扱っていきます。アニメーションを実現するには、まず時間を扱う基本構造を知る必要があります。p5.jsでは、setup(), draw() という2つのブロックにわけて、初期化と更新を行うことでアニメーションを実現しています。まず始めはこの基本構造について理解します。次に、これから動きを扱う際に、向きと大きさをもった「ベクトル」という概念を理解します。ベクトルを理解することで、位置や運動を整理して記述することが可能となります。最後に、この基本構造をベクトルを活用して簡単なアニメーションを作成します。

映像資料

スライド資料

ランキング

おめでとうございます!

サンプルコード (課題のヒント)

本日の課題!!

本日の最終のコードを改造してランダムな要素を追加してください。

例:

  • 円の色をランダムな色に
  • 円の大きさをランダムに
  • (応用)円の動きをランダムに
  • …etc.

作品は、OpenProcessingに投稿した上でアンケートフォームから提出してください。

  • 完成した作品に、タイトルをつける
  • 投稿したURLをアンケートから提出
  • 投稿の際にsfc241108のタグをつけてください!
  • 締切: 2024年11月14日 (水) 23:59 まで!

アンケートフォーム (11/08)

前回(11/1)のアンケートフォームはこちら。

アンケートフォーム (11/01)


“Show us your screens” – ライブコーディングって何だろう?

この講義の前半はStrudelを用いてライブコーディングによるサウンドプログラミングの導入を行ってきました。

ここで改めて「ライブ」でコーディングするとはどういうことなのか、ということについて考えていきたいと思います。そもそも何故コード(プログラム)をステージ上で観客に見せるのか? コードを使ってパフォーマンスするという行為は何故意味があるのか。ライブコーディングというコンセプトの基本についてその歴史を紹介しながら学んでいきます。

スライド資料

参考映像

アンケート

本日の講義に出席した方は以下のアンケートに答えてください。

※ 旧カリ「サウンドプログラミング」「環境情報デザイン」で履修の方はこちら


TouchDesigner入門(4) – 音楽に連動させよう!

今回は、TouchDesignerの初級編の4回目として、音楽に反応する3Dオブジェクトを作成します。前回の回転する立方体のプログラムを改造して、音楽ファイルのデータをCHOPに読み込んでその音量の最大値を入力にして3Dオブジェクトの大きさや色、背景のグラデーションなど様々な属性を変化させて、音楽に反応して動いているように感じられる3D表現に挑戦します。

映像資料

スライド資料

サンプルファイル

本日の課題

今日のプログラムを改造して、以下のプログラムを作成してみましょう!

1. 音量によってSOPの形状が変化するようにしてみる!

ヒント

  • SOPの切り替えは、Switch SOPを用いる
  • SOPの数に応じて、Triggerの出力のスケールを変更する → Math SOP

2. 音量によって3Dの形状をノイズで変形してみる

ヒント

  • 前回のノイズのプログラムをヒントにする
  • Noise SOPのパラメータを音量で変化させる
  • Attribute Create SOPで法線マップの補正を忘れずに!

アンケート

本日の授業に参加した方は、下記のアンケートに答えてください。


ハンズオン:AIを使ったコード生成

homo codence

いま、コードで描くことの可能性を探る—
第一線で活躍する技術者や研究者がYCAMに集結!

第一線で活躍する技術者や研究者を迎え、今後のメディアアート作品の制作に使用されるツールについて紹介し、国内外の参加者とともに学ぶ集中ワークショップ・シリーズの第5弾です。ハンズオンワークショップ「AIを使ったコード生成」では、実際に手元のノートPCで生成AIを使用したコード生成を体験します!

ワークショップ資料

ワークショップを受講するにあたり、以下の資料を参照して事前に準備をしてきてください。

ワークショップの本編は以下のスライド資料を使用して解説していきます

参考映像

Introduction to Generative AI
ChatGPT: 30 Year History | How AI Learned to Talk

参考資料


ハンズオン:AIを使ったコード生成 – 事前準備

homo codence

「ホモ・コーデンス—AI時代、人類はどう描くのか」のハンズオンワークショップ「AIを使ったコード生成」では、実際に手元のノートPCで生成AIを使用したコード生成を体験していただきます。その際に、いくつかの事前準備が必要となりますので、以下で解説します。

可能な方はワークショップ開始前までに準備をしてくるようにお願いします。

必要な準備は以下の4点です。

  1. Githubへのユーザー登録
  2. Github Copilotのトライアル版登録
  3. Visual Studio Codeのインストール
  4. Visual Studio Codeの環境設定

1. Githubへのユーザー登録

Githubとは、 主にプログラムのソースコードをオンライン上で公開・共有できるプラットフォームです。現在最もポピュラーなGitホスティングサイトとなったで、2023年にはユーザ数1億人を突破しました。Githubにはいくつかアカウントの種類がありますが、基本的には無料で使用可能です。

以下の資料を参照してGithubにユーザー登録してください。

参考資料:

※10/25追記: 学生 (教職員) として GitHub Educationに応募するための情報を追記しました。下記のGithub Copilotが無料で制限無しに利用可能になります。

2. Github Copilotのトライアル版登録

Github Copilotは今回使用するGithubから提供されている生成AIを使用したコード生成のサービスです。使用するには有料のプラン (Copilot Individual 個人 – 10ドル/月) に加入する必要がありますが、30日であれば無料のトライアルが可能です。学生や教育機関に所属する人であれば、GitHub Education (教育用アカウント) に登録することで無料で使用可能となります。

以下の資料を参照して、Github Copilotのトライアル版に加入してください。

参考資料:

3. Visual Studio Codeのインストール

Visual Studio Codeは、マイクロソフトが開発・提供している高性能なコードエディターです。無料で利用可能です。

以下のリンクからVisual Studio Codeをダウンロードしてインストールしてください。

参考資料:

4. Visual Studio Codeの環境設定

Visual Studio Codeはインストールした直後の状態でも十分多機能です。しかし、用途や目的に応じて拡張機能をインストールしていくことで、自分専用にカスタマイズされた最強のテキストエディターとなります。このワークショップでは以下の機能拡張を事前にインストールしておくようにしてください。

参考:

もし環境設定できなかった場合は

もし個人で環境設定できなかった場合でも問題ありません。ワークショップの冒頭でインストール作業について解説します。

それでも、どうしても導入ができなかった場合は、下記のページで (少し機能は劣りますが) 同様のコード生成体験が可能なので、使用していきます。

それでは当日よろしくお願いします!!