고위험 고보상: 브랜드가 AI를 윤리적으로 사용하는 방법
게시 됨: 2023-07-18제너레이티브 AI는 이미 세상을 바꾸었지만 반짝이는 것이 모두 금은 아닙니다. ChatGPT와 같은 것에 대한 소비자의 관심은 높지만 전문가와 소비자 모두 AI가 사회에 미치는 위험에 대한 우려가 커지고 있습니다. 실직, 데이터 보안, 잘못된 정보 및 차별에 대한 걱정은 경보를 유발하는 주요 영역 중 일부입니다.
AI는 미국에서 가장 빠르게 성장하는 공포로 불과 4분의 1 전에 비해 26% 증가했습니다.
AI는 의심할 여지 없이 우리가 일하는 방식을 바꿀 것이지만 기업은 AI와 함께 발생하는 문제를 인식해야 합니다. 이 블로그에서는 직업 및 데이터 보안에 대한 소비자의 우려, 브랜드가 우려를 완화하고 잠재적인 위험으로부터 자신과 소비자를 보호하는 방법을 살펴봅니다.
1. 생성 AI 보호
ChatGPT 및 이미지 제작자 DALL-E와 같은 생성 AI 콘텐츠는 빠르게 일상 생활의 일부가 되고 있으며 절반 이상의 소비자가 AI 생성 콘텐츠를 적어도 매주 시청합니다. 이러한 도구는 응답을 학습하고 생성하는 데 막대한 양의 데이터가 필요하므로 민감한 정보가 혼합될 수 있습니다.
움직이는 부분이 많은 제너레이티브 AI 플랫폼을 통해 사용자는 프로세스와 성능을 개선하기 위해 다양한 방식으로 코드를 기여할 수 있습니다. 단점은 많은 기여로 인해 취약점이 종종 눈에 띄지 않고 개인 정보가 노출될 수 있다는 것입니다. 이 정확한 상황은 2023년 5월 초 ChatGPT에 일어난 일입니다.
절반 이상의 소비자가 데이터 유출로 인해 브랜드를 보이콧하게 될 것이라고 말하면서 데이터 프라이버시를 우선시해야 합니다. AI에 대한 법률을 제정하는 단계가 진행되는 동안 브랜드는 투명성 규칙과 사용 지침을 자체적으로 부과하고 이를 대중에게 알려야 합니다.
소비자 3명 중 2명은 AI 도구를 만드는 회사가 개발 방법을 투명하게 공개하기를 원합니다.
그렇게 함으로써 지금 특히 탐나는 통화인 브랜드 신뢰를 구축할 수 있습니다. 품질 외에도 데이터 보안은 브랜드를 신뢰할 때 가장 중요한 요소입니다. 브랜드 충성도가 점점 약해짐에 따라 브랜드는 데이터가 안전하게 관리되고 있음을 소비자에게 확신시켜야 합니다.
그렇다면 AI 시대에 데이터를 보호하는 가장 좋은 방법 중 하나는 무엇일까요? 첫 번째 방어선은 직원들에게 AI 도구를 교육하는 것입니다. 근로자의 71%가 교육에 관심이 있다고 말했습니다. 이를 데이터 보호 교육과 결합하는 것도 똑같이 중요합니다. 여기에서 교육이 정말 중요합니다. 데이터 개인 정보 보호를 최우선으로 생각하는 데 필요한 지식으로 직원을 무장시키는 것은 먼 길을 갈 것입니다.
2. 가짜 뉴스 세계에서 현실을 유지하기
페이스북은 1억 명의 사용자를 확보하는 데 4.5년이 걸렸습니다. 이에 비해 ChatGPT는 이 이정표에 도달하는 데 2개월이 조금 넘게 걸렸습니다.
제너레이티브 AI의 부상만큼이나 인상적인 것은 딥페이크로 알려진 오디오 및 비디오 형태의 가짜 뉴스 생성을 위한 자석이었습니다. 이 기술은 이미 전 세계적으로 잘못된 정보를 퍼뜨리는 데 사용되었습니다. 소비자의 29%만이 AI가 생성한 콘텐츠와 "진짜" 콘텐츠를 구별할 수 있는 능력에 대해 확신하고 있으며, 딥페이크가 더욱 정교해짐에 따라 상황은 더욱 악화될 것입니다.
ChatGPT 사용자의 거의 3분의 2가 실제 사람처럼 도구와 상호 작용한다고 말하며 이는 도구가 얼마나 잠재적으로 설득력이 있는지를 보여줍니다.
그러나 소비자들은 이것이 오는 것을 보았습니다. 64%는 AI 도구가 비윤리적인 목적으로 사용될 수 있다고 우려합니다. 이러한 우려와 딥페이크 탐지에 대한 낮은 자신감으로 인해 최신 가짜 뉴스 물결로부터 소비자를 보호하고 그러한 콘텐츠를 식별하는 방법에 대한 교육을 제공하는 데 차이를 만들 수 있는 것은 브랜드입니다.
브랜드는 소스 검증을 구현하고 공유하거나 홍보하려는 모든 정보에 대한 실사를 수행하는 것으로 시작할 수 있습니다. 같은 맥락에서 그들은 수신할 수 있는 모든 뉴스 기사에 대해 사내 사실 확인 프로세스를 사용하거나 협력할 수 있습니다. 가짜 뉴스와 잘못된 정보가 수년 동안 만연해 왔기 때문에 대부분의 브랜드에서 이러한 조치는 이미 시행되고 있을 것입니다.
그러나 딥페이크가 더 똑똑해짐에 따라 브랜드는 최신 기술을 유지해야 합니다. 이를 이기기 위해 브랜드는 AI 생성 콘텐츠를 식별하고 표시할 수 있는 AI 기반 감지 도구의 형태로 다시 한 번 AI로 전환해야 할 수 있습니다. 이러한 도구는 AI 시대에 필수품이 되겠지만 일반적으로 나쁜 행위자가 한 발 앞서 있기 때문에 충분하지 않을 수 있습니다. 그러나 상황과 신뢰성을 올바르게 해석하기 위한 탐지 도구와 인간의 감독의 조합은 최악의 상황을 막을 수 있습니다.
투명성도 중요합니다. AI로 생성된 가짜 뉴스를 해결하기 위해 무언가를 하고 있다는 사실을 소비자에게 알리면 소비자의 신뢰를 얻을 수 있고 모두가 딥페이크에 맞서는 데 도움이 되는 업계 표준을 설정하는 데 도움이 됩니다.
3. 내재된 편견과 싸우기
아무도 PR 악몽을 원하지 않지만 브랜드가 AI 도구에서 얻은 정보를 두 번 세 번 확인하지 않는다면 그것은 실제 가능성입니다. AI 도구는 인터넷에서 스크랩한 데이터, 즉 인간의 편견, 오류 및 차별로 가득 찬 데이터에서 학습한다는 점을 기억하십시오.
이를 방지하기 위해 브랜드는 다양하고 대표적인 데이터 세트를 사용하여 AI 모델을 교육해야 합니다. 편견과 차별을 완전히 제거하는 것은 거의 불가능하지만, 광범위한 데이터 세트를 사용하면 일부를 제거하는 데 도움이 될 수 있습니다. 더 많은 소비자가 AI 도구가 어떻게 개발되고 있는지에 관심을 갖고 있으며, 주제에 대한 일부 투명성은 이러한 도구를 좀 더 신뢰하게 만들 수 있습니다.
모든 브랜드가 편향되지 않은 데이터 사용에 관심을 가져야 하지만 특정 산업은 다른 산업보다 더 주의해야 합니다. 특히 은행 및 의료 브랜드는 시스템적 차별의 역사를 가지고 있기 때문에 AI를 어떻게 사용하고 있는지에 대해 극도로 인식해야 합니다. 우리의 데이터에 따르면 특정 커뮤니티에 해를 끼치는 행동은 소비자가 브랜드를 보이콧하는 가장 큰 이유이며 AI 도구를 교육하는 데 사용되는 테라바이트의 데이터에는 잠재적으로 유해한 데이터가 있습니다.
사용 중인 데이터 세트에 대한 자세한 검토 외에도 브랜드는 전체 프로세스를 감독하기 위해 인간, 바람직하게는 DE&I(다양성, 형평성 및 포용성) 교육을 받은 사람이 필요합니다. GWI USA Plus 데이터 세트에 따르면 DE&I는 미국인의 70%에게 중요하며 가치를 공유하는 브랜드에서 구매할 가능성이 더 큽니다.
4. 작업장에서 자동화와 적절한 균형 유지
방 안의 코끼리에게 말을 걸자. AI는 노동자에게 친구가 될 것인가, 적이 될 것인가? 우리가 알고 있는 일을 바꿀 것이라는 데는 의심의 여지가 없지만 AI가 직장에 미치는 영향은 누구에게 물어보느냐에 달려 있습니다.
우리 가 아는 것은 대다수의 근로자가 AI가 자신의 업무에 어느 정도 영향을 미칠 것으로 기대한다는 것입니다. 특히 기술 및 제조/물류 산업에서 직원 역할의 많은 부분이 자동화될 것으로 예상됩니다. 12개 부문 중 8개 부문에서 자동화가 긍정적인 영향을 미칠 것이라고 말하면서 근로자들은 대체로 AI에 대해 흥분하는 것 같습니다.
반면 근로자의 거의 25%는 AI를 일자리에 대한 위협으로 보고 있으며 여행 및 건강 및 미용 산업에서 일하는 사람들은 특히 긴장합니다. 제너레이티브 AI는 매달 기하급수적으로 개선되는 것 같습니다. 따라서 질문은 다음과 같습니다. AI가 지금 일상적인 작업을 처리할 수 있다면 다음에는 무엇이 올까요?
AI가 전 세계적으로 약 8천만 개의 일자리를 차지하더라도 근로자는 취약한 산업에서도 AI를 효과적으로 사용하여 자신의 기술을 향상시키는 방법을 찾을 수 있습니다. 고객 서비스는 AI로 대대적인 업그레이드를 거치게 되지만 사람 없이는 불가능합니다. 제너레이티브 AI는 대부분의 질문을 처리할 수 있지만 민감한 정보를 처리하고 공감하는 터치를 제공하려면 사람이 있어야 합니다. 인간은 또한 AI와 협력하여 보다 개인화된 솔루션과 권장 사항을 제공할 수 있으며 이는 여행 및 미용 산업에서 특히 중요합니다.
AI가 일부 작업을 자동화하면 작업자가 다른 방식으로 기여할 수 있습니다. 전략적 사고와 혁신적인 솔루션 제시에 추가 시간을 할애하여 새로운 제품과 서비스를 만들 수 있습니다. 기업과 산업마다 다르겠지만 AI와 인간 노동자 사이에서 적절한 균형을 잡을 수 있는 사람이 AI 시대에 번창해야 한다.
최종 프롬프트: 알아야 할 사항
AI는 강력할 수 있지만 브랜드는 위험을 인식해야 합니다. 그들은 소비자 데이터를 보호하고 가짜 뉴스를 인식해야 합니다. 투명성이 핵심이 될 것입니다. 소비자들은 AI의 미래에 대해 긴장하고 있으며, 그들이 윤리적이고 책임감 있게 행동하고 있음을 보여주는 브랜드는 먼 길을 갈 것입니다.
이 기술은 흥미롭고 작업장 전반에 긍정적인 영향을 미칠 가능성이 높습니다. 그러나 브랜드는 신중하게 진행해야 하며 기술과 인적 자본 사이에서 올바른 균형을 유지하도록 노력해야 합니다. 직원들은 윤리, 보안 및 올바른 적용에 대한 광범위한 교육이 필요하며 그렇게 하면 기술이 향상됩니다. AI 도구를 통합하여 완전히 교체하는 대신 사람들과 함께 작업함으로써 브랜드는 AI로 강화된 미래를 위해 균형을 잡을 수 있습니다.