인스타그램이 청소년이 보호를 위해 자살이나 자해와 명확히 관련된 용어를 반복적으로 검색할 경우 부모에게 알림을 보내는 기능을 도입한다. ⓒ베이비뉴스 |
인스타그램이 청소년이 보호를 위해 자살이나 자해와 명확히 관련된 용어를 반복적으로 검색할 경우 부모에게 알림을 보내는 기능을 도입한다.
인스타그램의 모회사 메타는 이러한 신규 알림 기능을 도입했다고 26일(현지 시간) 밝혔다.
알림은 인스타그램의 부모 감독 프로그램(Parental Supervision)에 등록한 부모에게만 전달된다. 부모의 연락 정보에 따라 이메일, 문자메시지 또는 왓츠앱을 통해 전송되며, 부모의 인스타그램 계정에도 알림 형태로 제공된다.
부모 감독 기능은 청소년과 부모가 플랫폼을 통해 초대 절차에 동의해야 설정할 수 있으며, 대상 연령은 13세부터 17세까지다. 감독자는 한 명의 부모만 등록 가능하다.
해당 기능은 미국, 영국, 호주, 캐나다에서 우선 도입되며, 올해 안에 한국 등 다른 지역으로도 확대될 예정이다.
메타는 블로그를 통해 "청소년의 검색 내용이 도움이 필요할 수 있다는 신호일 경우 부모가 개입할 수 있도록 하는 것이 목표"라며 "불필요하게 많은 알림이 전송될 경우 알림의 실효성이 떨어질 수 있기 때문에 이를 최소화하려 한다"고 밝혔다.
또한 메타는 청소년이 인공지능과 상호작용하는 과정에서도 부모에게 알림을 보내는 기능을 개발 중이라고 설명했다.
메타는 "청소년이 자살이나 자해와 관련된 특정 유형의 대화를 인공지능과 시도할 경우 부모에게 알림을 제공할 예정"이라며 "중요한 작업이며 향후 몇 달 안에 추가 내용을 공개하겠다"고 덧붙였다.
【Copyrightsⓒ베이비뉴스 pr@ibabynews.com】
<저작권자 copyright ⓒ 베이비뉴스 무단전재 및 재배포 금지>저작권자>















