설명 가능한 AI③ XAI와 AI 규제 준수와의 상관성?

설명 가능한 AI③ XAI와 AI 규제 준수와의 상관성?

설명 가능한 AI③ XAI와 AI 규제 준수와의 상관성? ‘딥러닝의 아버지’라고 불리는 제프리 힌턴은 2018년 12월 12일 미국 잡지 ‘와이어드’ 인터뷰에서 “AI에 설명 가능성을 요구할 이유가 없으며, 작동 결과를 사후에 평가해서 얼마나 믿을 만한 것인지 따지면 족하다”라는 취지의 발언을 했습니다. XAI의 필요성을 부정한 이야기였죠. 하지만 8일 뒤 ‘포보스’는 반박 기사를 냈습니다. AI 개발자, 국방 연구 책임자, 글로벌 컨설팅 회사...
생산 자재 변경으로 인한 검사 ‘데이터 드리프트’를 잡아낸 사례(DQI 모델) 

생산 자재 변경으로 인한 검사 ‘데이터 드리프트’를 잡아낸 사례(DQI 모델) 

생산 자재 변경으로 인한 검사 ‘데이터 드리프트’를 잡아낸 사례(DQI 모델)  Challenge   항상 일정한 광학 이미지가 촬영돼야 모델을 제대로 학습시키고 양/불량 판정 정확도를 높일 수 있음. 그러나 제조 현장의 다양한 요인 변화로 인해 ‘데이터 드리프트’가 발생하면서 생산품에 결함이 없음에도 NG가 발생하는 경우가 잦아 품질 검사 효율이 낮아짐 비용 및 관리 복잡도를 높이지 않으면서 검사 이미지가 제대로 촬영되고 있는지 실시간으로 알 수 있는 방안 필요...