소셜 게시물의 자체 분류가 온라인 연설 조정의 주요 문제를 개선합니까?

게시 됨: 2022-12-16

콘텐츠 조정은 현재 소셜 미디어계에서 뜨거운 주제입니다. Elon Musk가 Twitter를 개혁하는 동시에 과거의 조정 작업을 게시하면서 소셜 미디어 앱이 특정 토론을 통제하기에는 너무 많은 권한을 얻은 방법을 보여줍니다.

그러나 Musk가 프로세스에서 감지된 결함을 강조했음에도 불구하고 문제는 이제 어떻게 수정합니까? 콘텐츠 결정을 효과적으로 플랫폼 자체를 담당하는 소규모 임원 팀의 손에서 신뢰할 수 없다면 대안은 무엇입니까?

일반적으로 외부 전문가 패널을 대상으로 한 Meta의 실험은 성공적이었지만 그때에도 감독 위원회는 모든 콘텐츠 결정에 대해 판결을 내릴 수 없었으며 이러한 대체 수단에도 불구하고 Meta는 감지된 검열 및 편견에 대해 여전히 심한 비판을 받고 있습니다. 항소.

어떤 수준에서 의사 결정의 일부 요소는 다른 경로를 생각할 수 없는 한 필연적으로 플랫폼 관리에 속하게 됩니다.

개인 선호도를 기반으로 하는 대체 피드가 이러한 문제를 해결하는 또 다른 방법이 될 수 있습니까?

일부 플랫폼에서는 이를 조사하고 있습니다. 워싱턴 포스트가 보도한 바와 같이, TikTok은 현재 '성인용' 콘텐츠가 어린 시청자의 피드에 표시되지 않도록 하기 위해 '콘텐츠 수준'이라는 개념을 모색하고 있습니다.

TikTok은 특히 위험한 행동에 참여한 결과 일부 청소년이 사망한 위험한 도전 트렌드와 관련하여 이 전면에서 점점 더 면밀한 조사를 받고 있습니다.

Elon Musk는 또한 'Twitter 2.0'에 대한 더 넓은 비전의 일부로 유사한 콘텐츠 제어 접근 방식을 선전했습니다.

Musk의 변형에서 사용자는 트윗을 업로드할 때 자체 분류하고 독자는 잠재적으로 유해한 콘텐츠를 별도의 범주로 전환하는 데 도움이 되도록 일종의 자체 성숙도 등급을 적용할 수도 있습니다.

두 경우 모두 최종 결과는 사용자가 더 극단적인 댓글과 토론을 필터링하는 '안전'에서 '필터링되지 않음'(Musk는 아마도 '하드코어'로) 전체 경험을 제공합니다.

이론적으로는 흥미롭게 들리지만 실제로는 사용자가 자신의 트윗을 자체 분류하고 이러한 유형의 필터링에 실행 가능한 옵션이 될 수 있을 만큼 이러한 등급을 자주 얻을 수 있을까요?

물론 플랫폼은 트윗을 분류하지 않거나 올바르게 분류하지 못한 것에 대해 처벌을 시행할 수 있습니다. 아마도 반복 위반자의 경우 모든 트윗이 보다 극단적인 세분화로 자동 필터링되는 반면 다른 사용자는 콘텐츠를 둘 다 또는 모든 스트림에 표시하여 청중 도달 범위를 극대화할 수 있습니다.

구성 프로세스 내에서 분류를 선택하는 데 사용자에게 더 많은 수동 작업이 필요하지만 일부 우려를 완화할 수 있을까요?

그러나 이것은 여전히 ​​소셜 플랫폼이 혐오 발언을 증폭시키고 위험한 움직임을 부추기는 데 사용되는 것을 막지는 못할 것입니다.

Twitter 또는 기타 소셜 앱이 사용자를 검열하기 위해 이동한 대부분의 경우, 사람들이 댓글에 반드시 불쾌감을 느끼기 때문이 아니라 피해의 위협 때문이었습니다.

예를 들어, 도널드 트럼프 전 대통령은 다음과 같이 게시했습니다.

도널드 트럼프의 트윗

우려는 사람들이 그의 '약탈이 시작되면 총격이 시작된다'는 발언에 모욕감을 느낄 정도가 아니라 트럼프의 지지자들이 이것을 본질적으로 대통령이 효과적으로 지지하는 살인 면허로 받아들일 수 있다는 점이었습니다. 약탈자를 저지하기 위해 치명적인 무력 사용.

논리적으로 소셜 플랫폼은 이러한 방식으로 잠재적인 피해를 퍼뜨리는 데 도구가 사용되는 것을 원하지 않으며, 이와 관련하여 자체 검열 또는 게시물에 대한 성숙도 등급 선택은 핵심 문제를 해결하지 못할 것입니다. 댓글을 보지 않기로 선택한 사용자에게 댓글을 숨기세요.

즉, 보안 향상보다 난독화에 가깝지만 많은 사람들이 핵심 문제는 사람들이 온라인에서 말하고 싶어하는 것이 아니라 다른 사람들이 그러한 말에 불쾌감을 느끼는 것이라고 믿는 것 같습니다.

그것은 문제가 아니며 잠재적으로 공격적인 자료를 숨기는 것은 노출을 줄이는 데 어느 정도 가치가 있을 수 있습니다. 특히 TikTok의 경우 젊은 청중의 경우 사람들이 증오를 퍼뜨리기 위해 소셜 앱의 엄청난 도달 가능성을 사용하는 것을 막을 수는 없습니다. 실제 세계에 해를 끼칠 수 있는 위험한 행동 촉구.

본질적으로 그것은 일부 경우에 약간의 영향을 미칠 책임의 희석인 단편적인 제안이지만 그들이 만든 도구와 시스템이 위험한 용도로 사용되지 않도록 하기 위해 소셜 플랫폼의 핵심 책임을 다루지 않을 것입니다. 목적.

왜냐하면 그들은 있고 앞으로도 그럴 것이기 때문입니다. 사회적 플랫폼은 시민 불안, 정치적 봉기, 폭동, 군사 쿠데타 등을 부추기는 데 사용되었습니다.

바로 이번 주, ' 에티오피아의 폭력적이고 혐오스러운 게시물이 페이스북에서 번성하여 국가의 피비린내 나는 내전을 부채질 '하도록 허용한 메타에 대해 새로운 법적 조치가 시작되었습니다 . 이 소송은 결과적인 폭력의 피해자들에게 20억 달러의 손해 배상을 청구하는 소송입니다.

당신이 동의하지 않는 정치적 의견에 관한 것이 아니라 소셜 미디어 플랫폼을 사용하여 실제적이고 위험한 운동을 촉진할 수 있습니다.

이러한 경우 자체 인증이 아무리 많아도 도움이 되지 않을 수 있습니다. 이러한 유형의 최악의 시나리오를 해결하기 위해 규칙을 설정해야 하는 플랫폼에는 항상 약간의 책임이 있습니다.

그 또는 규칙은 그 영향을 측정하고 그에 따라 행동하도록 고안된 정부 및 기관에 의해 더 높은 수준에서 설정되어야 합니다.

그러나 결국 여기서 핵심 문제는 많은 '언론의 자유' 지지자들이 추진하는 것처럼 사람들이 원하는 것을 말하고 좋아하는 것을 공유할 수 있도록 허용하는 소셜 플랫폼에 관한 것이 아닙니다. 어떤 수준에서는 항상 한계가 있을 것이고 항상 보호 난간이 있을 것이며 때로는 사회적 게시물의 증폭 잠재력을 고려할 때 국법을 넘어 확장될 수 있습니다.

쉬운 답은 없지만 국민의 뜻에 맡긴다고 해서 모든 면에서 상황이 좋아지는 것은 아니다.