Guardrails for Amazon Bedrock : AI 애플리케이션에 책임감 심어주기
목차
- 생성형 AI를 책임감있게 사용하기 위한 과제
- Guardrails for Amazon Bedrock로 AI 어플리케이션 보호
- Agents for Amazon Bedrock을 사용한 가드레일 배포
생성형 AI는 다양한 사용 사례를 지원합니다.
- 내부 생산성 향상
- 고객 경험 향상
- 비즈니스 프로세스 최적화
생성형 AI 앱을 구축하였을때 생기는 새로운 과제
- 바람직하지 않고 관련 없는 주제
- 유해성
- 개인정보, 민감 정보 보호
- 편견 및 고정관념
생성형 AI앱을 구축하기 위한 추가 제어
- 사용 사례 및 조직 정책을 기반으로 한 맞춤설정
- 책임 있는 AI를 위한 안전 및 개인 정보 보호 제어
- Foundation Model 및 애플리케이션 전반에 걸친 일관된 보호장치
이러한 사항들을 적용하고 해결하기 위해 GuardRails For Amazon Bedrock이 등장
- 여러 FM 및 agents for amazon bedrock에 가드레일 적용
- 책임 있는 AI 정책에 따라 유해한 콘텐츠 필터링 구성
- 짧은 자연어 설명으로 거부된 주제 정의 및 허용 하지 않음
- FM 응답에서 민감한 개인 정보 수정
Guardrails For Amazon Bedrock 작동방식
User의 Input과 Foundation Model의 출력을 모두 검토하여, GuardRail의 기준에 따라 적용, 필터링을 거쳐 Final Response를 내보냄
GuardRail에서 필터링하는 규칙들
- 단어 필터
- 욕설 단어 필터
- 차단하고자 하는 단어 리스트업 가능
- 콘텐츠 필터
- 증오
- 모욕
- 성적
- 폭력
- 위법 행위
- 프롬프트 공격
- 개인식별정보 교정
- 개인식별정보 감지 및 필터링
- 예시) 정규표현식을 입력하여, 출력에 포함된 주민등록번호를 필터링 함
'Log > 컨퍼런스' 카테고리의 다른 글
AWS Summit Seoul 2024 Session - 개발의 미래: AWS AI 도구로 시간 절약하기 (0) | 2024.05.19 |
---|---|
AWS Summit Seoul 2024 Session - 당신의 AI는 안전하십니까? (0) | 2024.05.19 |
AWS Summit Seoul 2024 Session - AWS와 생성형 AI로 비즈니스 혁신하기 (0) | 2024.05.19 |
AWS Summit 2024 Seoul 방문 후기 (0) | 2024.05.19 |