|
구글은 구글 포토의 ‘자동 프레임(Auto frame)’ 기능에 생성형 AI와 머신러닝 기술을 접목해, 사진의 관점을 완전히 새롭게 재구성하는 편집 도구를 출시했다고 24일 밝혔다. 이번 업데이트의 핵심은 단순히 이미지를 자르거나 늘리는 수준을 넘어, 2D 사진을 3D 공간으로 해석해 카메라의 위치와 설정을 사후에 조정하는 이른바 ‘사후 시점 교정’ 기술이다.
그동안 사진의 구도를 바꾸려면 물리적으로 카메라를 움직여 다시 촬영하는 수밖에 없었다. 기존의 자르기(Crop)나 확대(Zoom) 도구는 고정된 시점 안에서 이미지를 가공할 뿐, 피사체와 배경 사이의 시차(Parallax)를 변화시키거나 프레임 밖에 가려진 장면을 보여주지는 못하기 때문이다. 하지만 이번에 도입된 기술은 사진 속 장면의 공간적 레이아웃과 피사체의 입체 구조를 분석해, 마치 촬영 현장에서 카메라를 옆으로 옮기거나 높낮이를 조절해 다시 찍은 듯한 결과물을 만들어낸다.
구글의 이번 기술은 크게 두 단계의 정교한 프로세스를 거친다. 첫 번째 단계는 ‘3D 장면 및 카메라 추정’이다. 내부적인 3D 포인트 맵 추정 모델이 원본 사진의 모든 픽셀을 분석해 입체 지도를 그리고, 촬영 당시의 카메라 초점 거리를 역으로 산출해낸다. 특히 이 과정에서 인물의 정체성이 훼손되지 않도록 얼굴과 신체를 정밀하게 복원하는 전용 모델이 적용되어 재구성 과정에서 발생할 수 있는 이미지 손상을 최소화했다.
두 번째 단계는 ‘생성형 인페인팅과 리터칭’이다. 가상 카메라를 새로운 위치로 이동시키면 원본 사진에는 기록되지 않았던 배경의 빈 공간(Holes)이 필연적으로 발생하는데, 이를 생성형 AI인 ‘잠재 확산 모델(Latent Diffusion Model)’이 주변 맥락에 맞춰 지능적으로 채워 넣는다. 구글 측은 “학습된 AI 모델이 원래 존재하던 콘텐츠는 충실히 보존하면서도, 새롭게 드러난 공간은 창의적이면서도 자연스럽게 완성하도록 설계했다”고 설명했다.
특히 셀카 이용자들에게 유용한 ‘원근 왜곡 보정’ 기능도 핵심적인 요소다. 스마트폰 전면 광각 렌즈로 가까이서 촬영할 경우 코가 유난히 커 보이거나 얼굴 형태가 부자연스럽게 왜곡되는 현상이 잦은데, AI가 이를 감지해 가상 카메라의 내부 파라미터를 자동으로 조정한다. 이는 마치 촬영자가 피사체에서 한 걸음 뒤로 물러나 망원 렌즈로 찍은 것과 같은 자연스럽고 돋보이는 비율을 사후에 구현해주는 방식이다.
이용 방법은 매우 간단하다. 사용자가 구글 포토 앱에서 인물이 포함된 사진을 선택한 뒤 편집 도구 내 ‘자동 프레임(Auto frame)’ 섹션으로 들어가면, AI가 피사체의 시선과 3D 방향을 분석해 최적의 구도를 계산한 여러 가지 제안(Candidate)을 보여준다. 이 중 ‘카메라 시점이 조정된 버전’을 선택하기만 하면 단 한 번의 터치로 사진의 각도와 왜곡이 보정된 결과물을 얻을 수 있다.
구글 딥마인드와 플랫폼·디바이스 팀의 협업으로 탄생한 이번 기능은 현재 인물이 포함된 사진을 대상으로 서비스 중이다. 구글 관계자는 “클래식한 편집 도구로는 해결할 수 없었던 고정된 시점의 한계를 극복했다”며 “사용자들이 찰나의 순간을 놓쳤더라도 사후에 가장 완벽한 구도를 찾아낼 수 있도록 기술적 지원을 계속할 것”이라고 밝혔다.


![커피와 닭강정…사모펀드 밸류업 공식이 바꾼 메뉴판[마켓인]](https://image.edaily.co.kr/images/Photo/files/NP/S/2026/04/PS26042701306t.800x.0.png)


![‘1:59:30' 마라톤 2시간 벽 깬 화제 속 러닝화는[누구템]](https://image.edaily.co.kr/images/vision/files/NP/S/2026/04/PS26042700874t.jpg)