당신을 생각하게 할 AI에 관한 11 가지 인용문

작가: Laura McKinney
창조 날짜: 3 4 월 2021
업데이트 날짜: 26 6 월 2024
Anonim
사람이 죽기 직전에만 느낄 수 있는 이상한 감각
동영상: 사람이 죽기 직전에만 느낄 수 있는 이상한 감각

콘텐츠


출처 : Lin Shao Hua / Dreamstime.com

테이크 아웃 :

인공 지능의 발전은 불가피하며 인류에게 어떤 의미가 있는지 명확하지 않습니다. 어떤 이들은 우리가 큰 미래를 기대할 수 있다고 믿는 반면, 다른 사람들은 그것이 우리가 로봇 대 군주들에 의해 대체 될 길을 가고 있다고 생각합니다. 세 번째 관점은 위험을 알고 있지만 관리 할 수있는 것으로 간주합니다.

우리는 AI와 그것의 변형 가능성에 대해 많이 듣습니다. 그러나 그것이 인류의 미래에 의미하는 것은 완전히 명확하지 않습니다. 일부 미래 학자들은 인생이 개선 될 것이라고 믿고, 다른 미래는 심각한 위협에 처해 있다고 생각합니다. 중간에 위치의 스펙트럼도 있습니다. 다음은 11 명의 전문가가 수행 한 범위입니다.

1. "인공 지능의 가장 큰 위험은 사람들이 너무 일찍 결론을 내렸다는 것입니다." – Eliezer Yudkowsky

이것은 기계 지능 연구소 (MIRI)에 대한“세계 위험의 긍정적이고 부정적인 요소로서 인공 지능”이라는 제목의 Yudkowsy 2002 보고서의 첫 번째 문장입니다. AI라는 용어는 지금처럼 거의 뭉치지 않았지만, 기술의 능력과 한계에 대한 이해가 부족하다는 문제는 여전히 남아 있습니다. 실제로 지난 몇 년 동안 AI를 이해하기 쉽게 설명 할 수있게 만드는 것이 더 중요해졌습니다.

2. "AI가 설명 할 수 있고, 공정하며, 안전하고, 계보를 가지고 무엇인가를 만드는 것이 무엇보다 중요합니다. 즉, 누구나 AI 응용 프로그램이 어떻게 개발되었고 왜 그런지를 쉽게 볼 수 있습니다." – 긴니 로미 티


IBM의 CEO는 2019 년 1 월 9 일 CES에서 기조 연설을하면서이 성명을 발표했습니다. 설명 가능한 AI가 필요하다고 주장하는 배경은이를 밀폐 된 블랙 박스로 유지하면 프로그래밍에서 편견이나 다른 문제를 확인하고 수정할 수 없다는 것입니다. IBM은 기업에 컴퓨팅 서비스를 제공 할뿐만 아니라 기계 학습 시스템을 구축하는 사람들의 편견을 줄이는 것에 대한 상담을 통해이 문제를 해결하기 위해 노력하고 있습니다. (AI의 설명이 필요한 설명 가능한 AI에 대해 자세히 알아보십시오.)

버그 없음, 스트레스 없음-인생을 파괴하지 않고 인생을 바꾸는 소프트웨어를 만드는 단계별 가이드

아무도 소프트웨어 품질에 신경 쓰지 않으면 프로그래밍 기술을 향상시킬 수 없습니다.

3. “궁극의 검색 엔진검색어를 입력 할 때 원하는 것을 정확히 이해하면 정확한 옳은 것을 다시 얻을 수 있습니다. 컴퓨터 과학 우리는 그것을 인공 지능이라고 부릅니다. 그것은 똑똑 할 것임을 의미하며, 우리는 똑똑한 컴퓨터를 갖기까지 먼 길입니다.” – 래리 페이지

당시 Google의 공동 설립자이자 CEO는 2002 년 11 월 PBS NewsHour 세그먼트에서“Google : 검색 엔진”이라는 제목으로이 주제를 발표했습니다. 주최자는 American Dialect의 해에 Google의 인기가 높아지는 것에 대해 반성했습니다. 사회는 그것을 사용하기에 가장 유용한 동사로 평가했지만 Merriam-Webster와 같은 사람들이 그것을 인식하는 데 몇 년이 더 걸릴 것입니다. 그러나 초기에도이 회사는 AI 활용에 관심을 표명했습니다.


4. “AI에 대한 언급이나 의미는 모든 비용을 피하십시오. 무기화 ​​된 AI는 아마도 AI의 가장 민감한 주제 중 하나 일 것입니다. 이것은 구글에게 피해를 줄 수있는 모든 방법을 찾기 위해 언론에 붉은 고기입니다. " – Google의 AI 개척자 인 Fei Fei Li는 회사의 Project Maven 참여에 대해 동료들에게

구글은 인공 지능에서 메이저 플레이어가되는 데 단점이있을 수 있다는 것을 발견했다. 2017 년 7 월 국방부는 Project Maven의 목표를 발표했습니다. 정보, 감시 및 정찰 운영 정보국의 국방부 차관에서 해군 군단 드류 쿠코 (Drew Cukor) 알고리즘 전쟁 팀장 팀장은“올해의 목표에 대해 말했다. 컴퓨터는 무기 시스템이 물체를 감지하는 능력을 높이기 위해 공생 적으로 작동 할 것입니다.”

Google은이 벤처의 파트너 였지만 위의 인용문에서 알 수 있듯이 Google 직원들은 마음에 들지 않았습니다. 결국 회사는 압력에 굴복했고 2018 년 6 월 국방부와 계약을 갱신하지 않겠다고 발표했다. 차단이보고 한대로 :

3 월에 Gizmodo와 The Intercept가 계약을 공개 한 이후 구글은 압력이 가중되었다. 약 12 명의 직원이 항의에 사임했으며 수천명은“Google은 전쟁에 종사해서는 안된다”고 선언하는 공개 서한에 서명했습니다. 700 명 이상의 학계도“Google이 DoD와의 계약을 종료하고 구글과 모기업 인 알파벳은 군사 기술을 개발하지 않고 군사 목적으로 수집 한 개인 정보를 사용하지 않기로 약속한다.”

5. "인공 지능은 2029 년까지 인간 수준에 도달 할 것입니다. 2045 년까지 우리는 문명의 인간 생물학적 기계 지능 인 지능을 10 억 배로 늘릴 것입니다." – 레이 쿠르즈 웨일

미래 학자이자 발명가는 2012 년 인터뷰에서 컴퓨팅 능력을 통해 불멸 성을 달성하는 것에 대해 이야기했습니다. 그는“십억 배”의 수치를 확인하고 다음과 같이 설명했습니다.“이것은 우리가 물리에서이 은유를 빌려 인류 역사의 심각한 파괴적 변화 인 특이점이라고 부릅니다. 우리의 사고는 생물학적 사고와 비 생물학적 사고의 혼합이 될 것입니다.”분명히 그는 낙관적 인 미래 학자 중 한 사람으로, 엄청난 이익이 될 파괴적인 변화를 상상합니다. 그는 왜 불멸이 도달 할 수 있다고 믿는지에 대해 다음과 같이 설명했습니다.“우리는 매년 1 년 이상 남은 기대 수명, 시간이 다 떨어지지 않고 모래가 달리고 남은 수명이 실제로 다음과 같이 늘어날 것입니다. 시간이 지남”

6. “인공 지능의 도착의 가장 큰 이점은 AI가 인류를 정의하는 데 도움이된다는 것입니다. 우리가 누구인지 알려주려면 AI가 필요합니다.” – 케빈 켈리

Wired의 공동 창립자는 2016 년 책“이 불가피한 : 우리의 미래를 형성 할 12 가지 기술력에 대한 이해”에서이 포괄적 인 주장을 썼습니다. 그는 로봇이 차지하는 자동화 및 작업의 부상을 계획하고 있습니다. 반복되는 거부주기가 될 것이지만, 진전은 불가피하며 그에 따라 적응해야합니다. IBM과의 인터뷰에서“AI를 통해 생물학적으로 존재하지 않고 인간의 생각과는 다른 많은 새로운 유형의 사고와 컴퓨터 클라우드의 은색 안대기를 발명 할 것입니다. “이러한 지능은 인간의 사고를 대체하지 않고 그것을 증가시킵니다.”

7. “AI의 진정한 위험은 악의가 아니라 역량입니다. 에이 초 지능 AI 목표 달성에 큰 도움이되며 목표가 목표와 맞지 않으면 문제가 발생합니다. 당신은 아마도 악의에서 개미를 밟는 사악한 개미 싫어하는 사람은 아니지만 수력 녹색 에너지 프로젝트를 담당하고 개미집에 범람 할 개미집이있는 지역에 개미집이 있다면 말입니다. 개미의 위치에 인류를 두지 마십시오.” - 스티븐 호킹

이 인용문은 2015 년 초로 거슬러 올라갑니다. Reddit AMA (Ask Me Anything) Q & A 세션에서 Stephen Hawking이 수업에서 제기 한 특정 AI 문제를 해결하는 방법을 알고 싶어하는 교사의 질문에 대한 답변입니다 수행원:

내 반에 대한 자신의 신념을 어떻게 표현 하시겠습니까? 우리의 견해는 화목 할 수 있습니까? 평신도 터미네이터 스타일의 "사악한 AI"를 할인하는 습관이 순진하다고 생각하십니까? 마지막으로 AI에 관심이있는 학생들에게 어떤 도덕을 강화해야한다고 생각하십니까?

호킹은 AI가 인류에 미칠 수있는 파괴적인 영향에 대한 우려를 보여 주지만, 우리가 계획을 세울 경우 위험을 관리 할 수 ​​있다고 믿는 것 같습니다. (이에 대한 자세한 내용은 슈퍼 인텔리전트 AI가 곧 인간을 파괴하지 않는 이유를 참조하십시오.)

8. “지능형 지능을 알고 싶습니다 사이보그 평범한 살과 피의 인간을 치료할 수 있습니까? 인간이 덜 지능적인 동물 사촌을 어떻게 대하는지 조사하는 것이 더 좋습니다. 물론 완벽한 비유는 아니지만 상상하기보다는 실제로 관찰 할 수있는 최고의 원형입니다.” – 유발 노아하라 리

하라 리 교수는 자신의 2017 년 책“호모 데우스 : 내일의 간단한 역사”에서 그 선언을 발표했습니다. 그의 견해는 인간이 우월한 기초를 선점하기 위해 데이터주의라고 부르는 것의 상승을 묘사하는 긍정적 인 미래 학자들의 견해와 다릅니다. 인공 지능. 우리는 Hawking의 설명에서 개미의 위치가 침수 될 수밖에 없다. 이것은 전지전능하고 전지전능 한“우주 데이터 처리 시스템”이 지배하는 미래이며 저항은 무의미하다.

9. “우리는 인공 지능에 대한 최첨단 연구로 제기 된 도덕적, 윤리적 문제를 개별적으로 그리고 집단적으로 다루어야합니다 생명 공학이는 생명 연장, 디자이너 아기 및 메모리 추출을 가능하게합니다.” – 클라우스 슈 바브

Schwab은 2016 년 1 월 제 4 차 산업 혁명에 대한 자신의 생각을 발표했습니다. 긍정적 미래 학자와 마찬가지로 그는 미래가“인류를 근본적으로 변화시킬 물리적, 디지털 및 생물학적 세계를 융합시킬 것”이라고 상상했습니다. 그러한“변혁은 긍정적”이라고 사람들이“길을 따라 발생하는 위험과 기회”에 대한 인식을 가지고 미리 계획 할 것을 촉구합니다.

10. “인류의 최고와 최악을 모두 반영 할 AI의 잠재력에 대해 많은 글을 썼습니다. 예를 들어, 우리는 AI가 외로운 사람들에게 대화와 위로를 제공하는 것을 보았습니다. 우리는 또한 AI가 인종 차별에 관여하는 것을 보았습니다. 그러나 인공 지능으로 자동화 할 수있는 작업의 양이 전보다 훨씬 크기 때문에 단기적으로 인공 지능이 개인에게 할 수있는 가장 큰 해악은 직종입니다. 지도자로서 우리 모두는 모든 개인이 번성 할 수있는 세상을 만들고 있는지 확인해야합니다.” – 앤드류 응

이 인용문은 스탠포드 인공 지능 연구소 (Stanford Artificial Intelligence Laboratory) 전 구글 디렉터 (Google Brain team)의 창립 책임자 인 앤드류 응 (Andrew Ng)이 2016 년 하버드 비즈니스 리뷰 (Harvard Business Review)에 썼다. Baidu AI 팀의 총괄 책임자였습니다. (2017 년 그는 랜딩 AI의 설립자이자 이사가되었습니다.) AI의 기능과 한계에 대해 설명했지만 오늘날에도 여전히 관련이 있습니다. Ng는 데이터 중심의 디스토피아 미래를 포지셔닝하지 않지만, 데이터를 지배하는 디스토피아 미래를 포지셔닝하지는 않지만, 데이터를 개발하는 사람들은 의도 된 결과와 의도하지 않은 결과를 완전히 이해하면서 책임감있게 적용 할 책임이 있다는 데 동의합니다.

11. "2035 년까지 인간의 마음이 인공 지능 기계를 따라갈 수있는 이유와 방법은 없습니다." – 그레이 스콧

이 인용문은 잘못 입력되지는 않았지만 항상 "2035 년까지 인간의 마음이 인공 지능 기계를 유지할 수있는 이유가없고 방법이 없습니다"로 나타나기 때문에 온라인 어디에서나 볼 수있는 방식에서 벗어납니다. 이야기. 디지털 소스에서 얼마나 멀리 되돌아 왔는지에 따라 2015 년에 발표되었을 가능성이 높습니다. 그러나 그 기간 동안의 s 및 비디오를 통해 몇 시간 동안 검색 한 후에도 특정 단점으로 고정시킬 수 없었습니다. 그래서 스캇에게 연락해서 소스를 요청했습니다. 그는 이렇게 말했습니다.“처음으로 말했거나 어디에 있었는지 기억 나지 않습니다.”그러나 그는 그의 말을 회상했다.“견적은 항상 틀렸다. '인공 지능'이라고 표시되어야합니다.