8. 인공지능과 윤리
인공지능의 영향력이 계속해서 커지고 있다.
인공지능이 한 결과에 대한 책임은 누가 져야할 것인지가 문제가 되고 있다.
자율주행자동차에 대한 처벌의 책임은 사람이 개입하는 레벨2,3 그리고 완전히 자율주행하는 레벨 4로 단계를 나누어서 처벌수위와 책임을 정한다.
완전한 자율주행의 경우에는 제조사의 책임으로 보지만 그 안에서도 알고리즘을 개발한 프로그래머의 잘못인지, 데이터를 수집한 빅데이터 담당자의 잘못인지, 총관책임자의 잘못인지 가리는 것도 문제가 되고 있다.
인공지능의 윤리 문제는 인공지능 면접관에서도 나타내고 있다. 채용 시장에서 AI면접관의 도입은 수시 채용의 효율적 운용, 지원자의 신뢰감 확보, 인사 전반의 미래 예측 가능등의 이유로 시작되었다.
하지만 인공지능이 인간의 잠재력과 가능성을 평가할 수 있을지 등의 문제는 계속되고 있다.
인공지능이 더 공정하다고 생각할 수 있지만 인공지능 또한 편향성을 지닐 수 있다.
인공지능의 데이터 편향성에 대한 대표적인 사례로 구글포토라는 어플이다.
구글포토가 흑인 커플을 동물로 분류한 문제가 있다. 데이터의 편향성이 인종차별로 연결될 수 있다는 문제를 보인 것이다. 또한 인공지능 기술이 활용된 어플은 스마트폰을 보유한 계층만이 이용할 수 있다는 문제가 발생하면서 데이터 편향으로 사회적 계층에 따른 차별이 발생할 수 있다는 것을 알 수 있다.
따라서 좋은 인공지능을 만들기 위해서는 좋은 데이터가 필요하다는 것을 알 수 있다.
인공지능을 만들 때도 그 인공지능이 어떤 영향력을 가져올지와 같은 것들을 에측하고 평가할 필요성이 있다.
다양한 인공지능과 관련된 법안이 제정되면서 인공지능 사용자를 보호하려는 노력이 이루어지고 있음을 알 수 있다.
인공지능 로봇이 발전함에 따라 인공지능과 관련된 가이드라인 또한 생겨나고 있다.
인공지능이 윤리적으로 잘 쓰이도록 하기 위해서는 사람이 만드는 데이터가 가장 중요하며 인공지능을 만드는 주체가 나 자신 일수도 있다는 인식을 가질수 있는 인공지능 윤리교육이 필요하다.
'AI > 인공지능' 카테고리의 다른 글
머신러닝과 딥러닝 (0) | 2022.07.08 |
---|---|
7. 인공지능의 문제점 바로 알기 (0) | 2022.01.22 |
6. 인공지능으로 변화하는 직업 (0) | 2022.01.22 |
5. 인공지능과 학습 – 지도학습, 비지도학습, 강화학습 (0) | 2022.01.22 |
4. 인공지능과 다양한 기술 이야기 (0) | 2022.01.22 |