Apple은 ‘It’s Glowtime’ 시기에 최신 iPhone 라인업을 출시했습니다. iPhone 16 및 16 Pro 모델은 Apple Intelligence를 위해 처음부터 만들어진 것으로 Apple에서 마케팅합니다. 올해 6월 연례 WWDC 컨퍼런스에서 기술 거대 기업이 공개한 Apple Intelligence에 대한 메모를 놓쳤다면, 그것은 인공 지능에 대한 그들의 견해입니다.
하지만 이 회사는 WWDC에서 하나의 기능을 편리하게 빼버렸고, 이는 iPhone 16 라인업에 하드웨어 변경 사항이 적용되기 때문에 당연한 일입니다. Visual Intelligence는 Android에서 Google Lens를 이동 중에 사용하는 것과 비슷한 iPhone으로 이동 중이지만, 전자는 인공 지능으로 구동됩니다. Google의 Gemini Live 또는 OpenAI의 ChatGPT-4o Advanced Mode(아직 출시되지 않음)의 멀티모달(이미지/비디오) 입력 기능과 다소 유사합니다. 하지만 Visual Intelligence는 이미지만 입력으로 사용할 수 있는 것 같습니다.
iPhone 16 시리즈의 새로운 카메라 컨트롤 버튼을 길게 눌러서 작동합니다.
Visual Intelligence에 무엇이든 질문할 수 있습니다. 예를 들어, 카메라를 레스토랑으로 향하면 Visual Intelligence가 레스토랑 영업 시간, 평점, 옵션을 빠르게 끌어내어 메뉴를 확인하거나 예약할 수 있습니다.
마찬가지로 이벤트 포스터에 카메라를 대고 캘린더에 자동으로 추가할 수 있습니다. 특히 Google의 Gemini는 Android 기기에서 비슷한 기능을 지원할 수 있으며, 한 단계 더 나아가 해당 날짜에 사전 약속이 있는지 알려줍니다.
이 모든 것은 기기 내 인텔리전스와 이미지를 저장하지 않는 Apple 서비스의 조합으로 구동됩니다. 또한 Visual Intelligence는 Google 및 ChatGPT와 같은 타사 서비스에 대한 게이트웨이 역할도 할 수 있습니다. 인터페이스에는 Search 및 Ask라는 두 개의 버튼이 표시됩니다.
검색을 사용하면 화면에 있는 내용에 대해 Google에 무엇이든 물어볼 수 있습니다. 예를 들어, 자전거를 발견하고 사고 싶은 경우입니다. Ask를 사용하면 ChatGPT를 호출하여 메모와 같은 도움을 요청할 수 있습니다. 정보는 사용자가 사용하기로 선택한 경우에만 타사 도구와 공유됩니다.
이 기능은 당장 사용할 수 없으며 올해 말에 출시될 예정이며 출시일에 대한 구체적인 정보는 아직 없습니다. 그러나 Craig Federighi가 “올해 말에 카메라 컨트롤”에 적용될 것이라고 구체적으로 말했기 때문에 Apple Intelligence를 지원하는 이전 iPhone에는 이 기능이 제공되지 않을 것으로 보입니다.
답글 남기기