2025年4月1日、Apple Intelligenceが日本語で利用可能になりました。
目次[非表示]
Apple Intelligenceとは
AppleのiPhone/iPad/Mac向けに開発された、個人向けの生成AIエコシステムです。従来の生成AIとは異なり、個人のプライバシー保護を重視している点が特徴です。Apple Intelligenceは、メールの校正、Siriとのより自然な会話、ラフなスケッチからの画像生成など、さまざまなAI処理をデバイス上で実行します。さらに、複雑で高品質な処理が必要な場合は、Appleシリコンを搭載した専用のプライベートクラウドサーバーを活用します。一部の分野では、外部の大規模言語モデルであるChatGPTを参考または活用することがあります。
- 「システム設定」>「Apple IntelligenceとSiri」 をクリックします。
- 「ChatGPT」>「設定」
アカウントなしでChatGPTを使用する: 「ChatGPTを有効にする」をクリックします。
ChatGPTを既存のアカウントと使用する: 「ChatGPTをアカウントと使用」をクリックして、画面に表示される指示に従って操作します。
注記: リクエストをChatGPTのチャット履歴に保存したい場合は、ChatGPTアカウントにサインインしている必要があります。
対応機種
- iPhone 15/16 Pro/Max
- iPad Air(第5世代)、iPad Pro(第5世代) 以降
- iPad mini(A17 Pro)
- MacBook Air (M1 2020) 以降
- MacBook Pro (M1 2020) 以降
- Mac mini (M1 2020) 以降
- Mac Studio (M1 Max/Ultra 2022) 以降
- Mac Pro (M2 Ultra 2023)
- iMac (M1 2021) 以降
NPU性能
iPhone |
NPU性能 (TOPS) |
MacBook |
NPU性能 (TOPS) |
2017 iPhone 8(A11) |
1.83 |
|
|
2018 iPhone X(A12) |
5.79 |
|
|
2019 iPhone11(A13) |
6 |
|
|
2020 iPhone12(A14) |
11 |
2020 MacBook Air/Pro (M1) |
11 |
2021 iPhone13(A15) |
15.8 |
2022 MacBook Air/Pro (M2) |
15.8 |
2022 iPhone14(A16) |
17 |
2023-4 MacBook Air/Pro (M3) |
18 |
2023 iPhone15(A17) |
35 |
2024-5 MacBook Air/Pro (M4) |
38 |
2024 iPhone 16(A18) |
45 |
|
|
クリーンアッププツール
- Macの写真アプリに移動する
- 編集>ツールバーのクリーンアップをクリックします
- 消したいものなぞる。点滅しているときはクリックするだけ!!
写真からアニメ、イラストを作成する
- アプリケーション>Image Playground を開く
- 右下の画像アイコンからファイルを指定して追加します。
- 「スタイル」ボタンをクリックしてから、「アニメ」、「イラスト」、または「スケッチ」を選択します。
ナイトモード
iPhone 11以降の機種で使用できる「ナイトモード」ですが、iPhone 13から望遠と広角を含む全てのカメラでナイトモードを撮影できるようになりました。iPhone
14 Pro、iPhone 15シリーズでは、LiDARスキャナとコンピュテーショナルフォトグラフィ技術により、暗所撮影はiPhone 13より2倍の画質向上を実現しています。
![]() |
![]() |
フォーカス切り替え
10数年前のカメラ好き達が予想していた未来のデジカメ機能である「撮影後にフォーカスを切り替える」がついに登場です。カメラAppの「ポートレート」で画面の被写体をタッチすると、被写界深度エフェクトがより自然にかつ瞬時に生成されます。iOS 16以降を搭載したiPhone 13以降のモデルで利用できます。
- iPhoneで写真アプリ
を開きます。
- ポートレートをタップしてフルスクリーン表示にしてから、
をタップします。
- 写真内の新しい被写体(または焦点ポイント)をタップします。
- 「完了」をタップします。
![]() |
ライブ留守番電話
iOS17 &「A16 Bionic」以降は、留守番電話メッセージを着信したときに、リアルタイムでディスプレイ上にテキストメッセージを書き起こしてくれます。
空間ビデオ撮影
NPUとは直接関係ありませんが、iPhone 15からUSB-Cポートを初採用しました。
これにより、(Pro/Pro Maxシリーズのみ)Apple ProRAW写真やApple ProResビデオなどの大容量データの高速転送が可能になりました。
スタジオでのCapture Oneを使用したMacへのリモート転送や、 最大4K/60fpsのProResビデオ撮影のSSD外部ストレージ記録にも対応しています。
![]() |
![]() |
これだけでもなかなかの衝撃ですが、さらに2つのレンズを駆使してVR撮影を手軽に行えます。未来のコンテンツ作成を支援する「空間ビデオ」撮影機能は、2023年12月にリリースされました。
![]() |
声を分離
- 通話中にコントロールセンターを呼び出す
- 右上のマイクモードをタップ
- 「声を分離」をタップ
テキスト認識表示(Live text)
外出先でカメラをテキストに向けて即座にチケットを購入したり道順を知ることができます。「A12 Bionic」を搭載したiPhone XSから利用可能になった機能です。
![]() |
AI分析アプリの動作向上
![]() |
![]() |
「Seek」では、2,000万枚以上の写真で学習したMLモデルを使って植物や動物を瞬時に特定できます。
シネマティックモード
カメラAppを開いて「シネマティック」を選択すると、被写体を予測してピントを合わせ続けたビデオを撮影できます。いつでも画面をタップして手動でピントを変えたり、2回タップしてトラッキング対象をロックすることもできます。
![]() |
フォトグラフスタイル
撮影前に4つのスタイル(標準、リッチなコントラスト、鮮やか、温かい、冷たい)から1つを選ぶと、肌のトーンを維持したまま背景を調整できる。従来のフィルターでは得られないような写真の効果が可能になります。オプション機能で「トーン」と「温かみ」を調整して、自分好みのスタイルを保存すると、他のすべての写真にも適用できます。
![]() |
- カメラAppを開く
- 画面下の「写真」を選択します
- 画面を上にスワイプ
- レイヤーアイコンをタップ
- 画面を左右にスワイプしてスタイルを選択
- スライダーで「トーン」と「温かみ」を調整
更新履歴
- 2021年9月15日(水)のApple Event で iPhone 13が正式発表されました。
- A15 Bionic搭載:64bit ARMベースのシステム・オン・チップ(SoC)
- 最新の6コアCPU、4コアGPU(Proシリーズは5コアGPU)
- 新しい16コアNeural Engine(以下NE)により15.8兆/秒の演算が可能
- NEはカメラのハードウェア/ソフトウェアチームと共同で開発
- ラインナップ
新ラインナップ - 超広角レンズ:13mm F2.4、レンズ構成5枚
- 広角レンズ:26mm F1.6、レンズ構成7枚 、新型1.7μmセンサー、センサーシフト式手ぶれ補正
- iPhone 13 Pro, iPhone 13 Pro Max カメラの主な仕様(35mm判換算)
- 超広角レンズ:13mm F1.8、レンズ構成6枚、マクロモード(最短撮影距離2cm)
- 広角レンズ: 26mm F1.5、レンズ構成7枚、1.9μmセンサー、センサーシフト式手ぶれ補正
- 望遠レンズ:77mm F2.8、レンズ構成6枚(iPhone12 Pro は52mm)
- ふと2時に目が覚めて、久々にリアルタイムでApple Eventを視聴しました。iPhoneが従来よりヌルヌル動くと言われてしまうとちょっと欲しくなる。写真は「コンピュテーショナルフォトグラフィ」を中心とした内容で、機械学習やAR技術がうまい具合に融合して新体験ができるようになっている。
- シネマティックモードの一部や星空の写真のサンプルには「ん?」と改善の余地があると感じたが、それ以外は大型のモニターでもまったく分からない。むしろ使えるなら積極的に使いたいと思わせる仕上がりです。
- 2023年9月13日(水)のApple Event で iPhone 15 Pro/Pro Maxが正式発表されました。
- iPhone 15 Pro/Pro Maxの主な強化ポイント
- ハイエンドデスクトップPCに迫る最新の6コアモバイルCPU
- 新Neural Engine(以下NE)により従来より2倍の35兆/秒の演算が可能
- 120mmの望遠撮影が可能(Pro Maxのみ)
- iPhone 15 Pro/Pro Maxの主なカメラ仕様
- Pro
- 48MP 広角レンズ:24mm F1.78、新型2.44μmセンサー、センサーシフト式手ぶれ補正(第2世代)、28mmと35mmの画角切り替え付き
- 12MP 望遠レンズ:77mm F2.8、1μmセンサー
- Pro Maxのみ
- 12MP 超広角レンズ:13mm F2.2、1.4μmセンサー
- 12MP 望遠レンズ:120mm F2.8、1.12μmセンサー
![]() |
Pro Maxの120mm F2.8レンズはテトラプリズムデザインで小型化に成功 |
- 2024年9月10日(水)のApple Event で iPhone 16 Pro/Pro Maxが正式発表されました。
- iPhone 16 Pro/Pro Maxの主な強化ポイント
- ハイエンドデスクトップPCに迫る最新の6コアモバイルCPU 最大30%高速化
- GPUパフォーマンス 最大40%高速化
- Apple Intelligenceにて生成AIをiOS18に統合 ※日本は来年に対応予定
- 2024年12月(対象:🇺🇸、🇦🇺、🇨🇦、🇳🇿、🇿🇦、🇬🇧)
- 2025年中(対象:🇨🇳、🇫🇷、🇯🇵、🇪🇸)
- 120mmの望遠撮影が可能(Pro/Pro Max)
- iOS18カメラアプリ関連
- 「カメラコントロール」ボタン新搭載
- ビデオ録画で一時停止可能
- セルフタイマー5秒が新追加
- 左上フラッシュ長押しで詳細メニュー
- 写真界隈では数年前から、AIによる消しゴムツールやノイズリダクションはもちろん、超解像度から自動色補正など、RAW現像ソフトウェアの画像処理のレベルが進化し続けています。日本のカメラメーカーについても、こういった画像処理技術だけでなく、鳥認識AFなど被写体認識にAI技術を取り入れているため、まあ10年前とは比較できないくらい面白い状況になっています。今回のApple Eventでは、最新のA18のニューラルエンジンの性能は従来と同じで、あまり詳しく触れられませんでした。
- ニューラルエンジン【Neural Engine】とは ーー AppleのiPhoneやMacの半導体チップに搭載されている機械学習(ML)のタスク処理を行うための仕組み。ニューラルは、脳の神経細胞を意味する。「ニューラルエンジン」は、2017年11月発売のiPhone X「A11 Bionic」に初搭載されました。演算処理性能(NPU)は、A11:1.83兆/秒、A12:5.79兆/秒と順当に進化。2020年11月発売のMacBook「M1チップ」で11兆/秒と飛躍的に向上すると、2021年9月発売のiPhone 13「A15 Bionic」とMacBook「M2チップ」で15.8兆/秒、2023年9月発売のiPhone15「A17 Pro」でなんと35兆/秒の演算処理が可能になりました。
-