Gemini 기반 AI 기능이 무수히 많은 Pixel 9는 MKBHD가 리뷰에서 언급한 대로 사실상 “Gemini 폰”입니다. Google이 더 많은 온디바이스 AI를 추진하고 있지만 이러한 AI 기능의 대부분은 여전히 인터넷 연결이 필요합니다. 따라서 AI 마법을 위해 버튼을 탭하면 데이터가 Google의 클라우드 서버로 전송되고, 그곳에서 무거운 작업이 이루어집니다. Tensor G4 칩에만 의존하는 대신 AI 작업을 아웃소싱하는 것과 같습니다.
그렇다면 Pixel 9 AI 기능에 인터넷 연결이 필요할까요? 일반적으로는 그렇습니다. 하지만 모든 기능이 그럴까요? 아니요. 설명해 드리겠습니다.
온라인이어야 하는 Pixel AI 기능
- Gemini AI Assistant, Pixel Studio, 비디오 부스트, 야간 시력 비디오, 매직 에디터
우선, Gemini AI Assistant는 작동하려면 인터넷 연결이 필요합니다. 그렇습니다. 오프라인에서 많은 작업을 할 수 있는 Apple의 Siri나 Google Assistant와 달리 Gemini Assistant나 Gemini Live 기능은 인터넷 연결 없이는 작동하지 않습니다.
저는 구글이 언젠가는 앱 열기, 손전등 켜기, 휴대전화 설정 변경 등 적어도 몇 가지 작업을 오프라인에서 할 수 있도록 허용할 것으로 기대하고 있지만, 현재로서는 불가능합니다.
Pixel 9에서 Google은 AI를 사용하여 텍스트 프롬프트에서 이미지를 만드는 새로운 Pixel Studio 앱을 출시했습니다. 온디바이스 처리를 활용하지만 이미지를 생성하기 위해 Google의 클라우드 기반 Imagen 3에 의존하므로 인터넷 연결이 필요합니다. 앱은 그것 없이는 작동하지 않습니다.
반면 Apple AI의 이미지 생성기는 완전히 기기에 내장됩니다. 이는 Google의 구현에 비해 훨씬 빠르고 개인 정보 보호에 친화적입니다.
흔들리고, 흐릿하고, 그렇지 않으면 완벽하지 않은 비디오를 수정하기 위해 새로운 비디오 부스트 기능을 사용하기로 선택하는 경우 비디오를 Google Cloud에 업로드하여 처리해야 하며, 그런 후에야 부스트된 비디오를 볼 수 있습니다. 많은 데이터를 소모하고 시간이 다소 걸립니다.
Pixel Pro 휴대폰의 야간 모드 비디오도 동일한 기능을 사용하며, 이 기능을 사용하려면 역시 온라인 상태여야 합니다.
다시 말씀드리지만, 여러분께 말씀드리기 싫지만 Google Photos의 Magic Editor는 작동하려면 인터넷 연결이 필요합니다. 따라서 사진을 편집할 때마다 Google Cloud와 핸드셰이크를 하게 되는데, 즉, 즉시 편집할 수 없다는 뜻이기도 합니다.
클라우드가 필요 없는 Pixel 9 AI 기능
- 픽셀 스크린샷, 줌 강화기, 나 추가, 통화 메모, 매직 지우개, 오디오 매직 지우개
Pixel 9에는 모든 스크린샷을 스캔하고, 스크린샷에 무엇이 있는지 이해하고, 정보를 쉽게 정리하고 기억할 수 있는 완전히 새로운 스크린샷 앱이 제공됩니다. 예를 들어, 얼마 전 Pixel 9에서 실행한 Geekbench 벤치마크의 스크린샷을 찍었는데, 모든 점수가 포함된 메모를 영리하게 가져와서 준비했습니다. 이 기능은 기기에서 완전히 작동합니다.
스크린샷 관리 외에도 Pixel 9는 사진에서 원치 않는 물건이나 사람을 제거하여 공간을 매끄럽게 채울 수 있는 Magic Eraser와 같은 여러 가지 인상적인 온디바이스 AI 기능을 자랑합니다. 인기 있는 Add Me 기능도 명백한 이유로 필요하지 않습니다.
새로운 Zoom Enhancer 기능은 오프라인에서도 작동하여 핀치하여 확대할 때 사진의 세부 사항을 향상시킵니다. Pixel의 Super Res Zoom이라고 생각하세요. 하지만 사진을 찍은 후에 작동합니다. 비디오에서 원치 않는 노이즈를 제거하는 Audio Magic Eraser는 기존의 또 다른 온디바이스 기능입니다.
마지막으로, Call Notes를 사용하면 Pixel 9에서 이제 기기의 모든 통화를 자동으로 녹음한 다음 통화를 종료한 후 몇 초 후에 대화의 대본과 요약을 보여줍니다. 이 기능은 완전히 기기에서 작동하며, 데이터는 기기에서 나가지 않습니다.
온디바이스 처리 vs. 클라우드 처리: 왜 중요한가?
- 기기 내: 더 빠르고, 개인정보 보호가 가능하며, 기능이 제한적입니다.
- 클라우드: 느리고 개인 정보 보호 수준은 낮지만 훨씬 더 강력합니다.
온디바이스 프로세싱을 사용하면 모든 AI 계산 및 처리가 디바이스 내에서 수행됩니다. 휴대폰에서 데이터가 나가지 않습니다. 클라우드로 데이터를 전송하거나 클라우드에서 데이터를 전송할 필요가 없으므로 AI를 사용하여 사진/비디오를 생성하거나 편집하는 작업이 훨씬 더 빠르게 실행됩니다. 또한 개인 정보 보호에 더 친화적이며 Wi-Fi나 모바일 데이터가 없어도 어디에서나 작동합니다.
하지만 AI는 많은 연산 능력을 필요로 하며, 출력 품질은 기기의 성능에 따라 제한됩니다. 이것이 새로운 Apple Intelligence가 A17 Pro 칩셋이 탑재된 iPhone 15 Pro에서만 사용 가능하고 하위 모델에서는 사용할 수 없는 이유입니다.
클라우드 프로세싱은 사실상 무한한 컴퓨팅 파워에 액세스할 수 있다는 것을 의미합니다. 필요할 때 리소스를 쉽게 확장할 수 있으며, AI 모델은 장치 수준 업데이트 없이도 더 자주 업데이트 및 개선할 수 있습니다.
하지만 귀하의 데이터는 처리를 위해 클라우드로 전송된 후 나중에 다시 다운로드됩니다. 이는 귀하의 개인 데이터에 대해 우려스러울 수 있습니다. 또한 인터넷 대역폭을 많이 소모하고 고속 연결이 없으면 엄청나게 느리게 작동합니다. 이 기능은 오프라인에서는 사용할 수 없습니다.
결국 왜 인터넷에 연결해야 할까?
Pixel 8과 8 Pro의 경우와 마찬가지로, 올해 Pixel 9와 9 Pro에서 출시된 대부분의 AI 기능은 실제로 완전히 기기에서 실행되지 않지만, 이는 조각조각으로 강조된 용어입니다. Google에서 어떤 기능이 완전히 오프라인에서 작동하고 어떤 기능이 작동하지 않는지에 대한 직접적인 명확한 설명을 보지 못했습니다.
저는 새로운 Tensor G4가 모두가 예상했던 것보다 작은 업그레이드이기 때문이라고 생각합니다. Tensor G3에 코어가 하나 적고 성능과 효율성이 약간 더 뛰어납니다. Google은 작년과 동일한 Tensor Processing Unit을 사용했으며, 향상된 Gemini Nano가 유일한 새로운 기능입니다.
Tensor G4가 본질적으로 Snapdragon 8 Gen 3, Apple A17 Pro, Exynos 2400과 같은 경쟁 제품에 비해 처리 능력이 뛰어나지 않거나 그에 못지않다는 점을 고려하면 Google이 대부분의 부하를 클라우드 서버로 이전한 것은 현명한 결정입니다.
이는 또한 이러한 클라우드 기반 AI 기능이 나중에 이전 Pixel 휴대전화로 이전될 수 있음을 의미합니다. 그리고 Google이 Magic Eraser, Photo Unblur, Magic Editor를 모든 Android 및 iOS 사용자에게 무료로 제공한 것처럼 , 이러한 기능도 같은 범위에 속할 수 있습니다. Google이 이를 Google One 구독 혜택의 일부로 포함할 경우 놀랍지 않을 것입니다.
결국 Google은 하드웨어 회사라기보다는 클라우드 및 소프트웨어 회사이고, 이런 접근 방식이 Google의 방향에 더 잘 맞습니다. 하지만 저는 ‘휴대전화의 AI’가 더 일반화됨에 따라 더 완벽하게 기기 내 AI 기능을 보고 싶습니다.
Pixel 9에서 이미 제공되는 5가지 Apple 인텔리전스 기능
답글 남기기