레드팀 발표: 공상과학이 경계하고 있습니다

국방혁신처는 국방혁신 오리엔테이션 문서인 레드팀(Red Team)을 통해 독특한 팀 창설을 공식화했습니다. 이 단체는 비정형 배경을 지닌 5명의 멤버로 구성됩니다. 여기에는 기술 혁명을 예상하기 위해 과학 교사뿐만 아니라 SF 작가들도 함께 모으는 것이 포함됩니다. 레드팀의 구성원은 "파괴적인 기능 또는 이에 대한 보호"로 이어지는 시나리오를 설정해야 하는 미래학자가 될 것입니다.

터무니없는 ? 거기에서 멀리 떨어져 있습니다. 공상과학소설은 기술을 예측하는 능력이 오랫동안 입증되어 왔습니다. 아이작 아시모프(1920-1992)는 인공지능 분야의 핵심 인물로 남아있습니다. 그의 유명한 시절 로봇 사이클, 이 저자는 로봇 공학, 즉 AI의 세 가지 기본 법칙을 확립했습니다. 첫째, 로봇은 인간의 완전성에 반하는 방식으로 행동할 수 없습니다. 그런 다음 그는 첫 번째 법칙에 위배되지 않는 한 인간이 내린 명령에 복종해야 합니다. 마지막으로, 로봇은 처음 두 법칙 중 하나에 위배되지 않는 한 무결성을 보호합니다. 

대부분의 AI 개발자는 이러한 참고 자료를 바탕으로 성장했기 때문에 이 세 가지 법칙은 현재로서는 시대를 초월한 상태로 남아 있습니다. 예를 들어, SALA에 대한 저항은 이러한 문화적 참조에서 유래합니다. 마찬가지로, 유럽 위원회가 위임한 AI에 대한 고위급 독립 전문가 그룹이 초안을 작성한 신뢰할 수 있는 AI에 대한 윤리 지침은 Asimov 법률의 유산입니다. 

Asimov의 사이클이 출판된 지 30년이 지났지만 저자의 성찰은 여전히 ​​의미 있고 통찰력이 있습니다. 

그러나 레드팀을 구성하는데 있어 AID도 예외는 아니다. 15년 2019월 1950일, 호주는 군대를 강화하기 위해 가능한 최대 예상 시나리오를 받기 위해 입찰을 요청했습니다. 마찬가지로, DARPA는 XNUMX년대 창작 과정을 최적화하기 위해 I.Asimov를 참여시켰다는 것이 인식되었습니다. 궁극적으로, AI를 마스터하기 위한 경쟁은 수년 동안 진행되어 왔으며 계속해서 강화되고 있습니다. 따라서 AI의 강자가 되고자 하는 각 플레이어는 이 기술의 미래 영향과 사용을 예측하는 것이 필수적입니다. 그러나 이 문헌에 나타난 문화적 차이의 영향을 간과해서는 안 됩니다. 러시아는 AI를 사용하여 떼를 지어 비행하도록 고안된 차기 ZALA AERO 가미카제 드론에서 알 수 있듯이 SALA 무장 금지에 덜 민감한 것 같습니다.

당연히 레드팀의 작업은 국가 및 비국가 모두의 "잠재적 적"에게 이익이 되지 않도록 기밀로 유지됩니다. 실제로 레드팀은 무기 시스템에 AI를 포함시키는 등 현재 기술의 혁신적인 사용을 제안해야 할 것입니다. 이 기관의 작업은 이러한 기대 능력을 전파하기 위해 다른 군대에 전달될 것입니다. 예상되는 결과는 다른 서비스의 생각을 기여함으로써 이미 개발된 작업을 풍부하게 할 수 있다는 것입니다. 

로맹 헤나프 – AI 전문가

더 나아가

리조 소시아

마지막 기사