일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- #책추천
- #미국증시
- #금리
- 돈
- 도서리뷰
- #엔비디아주식
- #미국환율
- 공부
- #Snp500
- #ai관련주
- #엔비디아주가
- #메타주가
- 독서
- 일상
- 책
- #엔비디아
- #도서리뷰
- #애플주가
- #반도체관련주
- 컨티뉴언
- #미국주식
- 책추천
- 독서모임
- #엔비디아관련주
- 부자
- #테슬라주가
- 도서
- #인공지능
- #엔비디아실적발표
- 책리뷰
- Today
- Total
기록하는 투자자
인간에게 인공지능은 긍정적일까? 부정적일까? 본문
안녕하세요, 기술 다루는 컨티뉴언입니다.
오늘은 오픈AI에서 퇴사하고 앤트로픽을 창업한 사람의 얘기를 들어볼게요.
그 이유와 인공지능에 대해 어떻게 생각하는지,
여러분들이 두려워하는 인공지능에 대해 함께 살펴볼게요.
바로 시작합니다!
인공지능의 세계로~
OpenAI에서 GPT 모델을 만든 후 퇴사하고 Anthropica를 설립한 이유
OpenAI에서는 GPT-2를 만들고 연구에 관여했는데요. 그 후에는 Anthropic을 만들기 위해 OpenAI를 떠난거죠.
일부 그룹은 GPT-2와 GPT-3를 개발하면서 두 가지에 집중하며, 모델에 더 많은 계산 더하면 더 좋아질 것이라는 믿음을 가진거죠.
그들은 모델을 확장하는 것 이상의 것이 필요하다고 생각하며, 더 많은 계산만으로는 모델에 자체 가치를 알려주지 않는다고 판단했는데요.
창업자와 알트만은 서로 다른 믿음을 갖고 일하기 위해, Anthropica를 창업한 것입니다.
인공지능 작동 방식에서 발생하는 문제와 대안
인간의 피드백만으로 데이터를 학습하는 경우, 모델이 제대로 작동하지 않는 문제가 있는데요.
모델이 특정 정보를 제공하지 않아도 되기 때문에, '답이 안 되는 답'으로 인간이 '답을 주지 않는' 것으로 판단하여 문제가 생길 수 있는거죠.
좀 더 섬세한 상황에서 정보를 전달하고 상대방을 불쾌하게 하지 않는 방법을 모색하는 과정에서, Conversational AI 모델이 우위를 차지할 수도 있습니다.
기업 데이터 보안과 프라이버시에 대한 중요성
CTO로 활동 중인 VJ가 데이터 보안, 프라이버시 및 저장에 대해 언급했는데요.
기업들이 데이터를 보호하고 거래 데이터를 미래에도 개인 정보를 유지하는 방법에 대한 고민이 중요하다고 강조했습니다.
알리릭스는 Amazon과 협력하여 'Bedrock'이라는 프로젝트를 통해 데이터 보안과 프라이버시를 중시하며 아마존에서 모델을 호스팅했는데요.
보안을 위해 고객 데이터를 훈련하는 경우는 거의 없으며, 모델을 개선하기 위해 고객의 요청이 있을 때에만 수행하는 것이죠.
AI 규제에 관한 제안과 걱정?
백악관에서 바이든 대통령과 회동했으며, 영국 총리와 만난 경험이 있습니다.
AI 규제에 관해 어떻게 고려해야 하는지, 그리고 회사들이 대형 언어모델을 개발하는 데 걱정하는 문제들에 대해 얘기하고 있는데요.
규제는 현재의 일에 대해 규제하지 말라며, 2년 뒤를 고려하라 말하며, 미국에서는 답을 측정하는 중요성을 강조하고, 모델 평가에 대해 연구를 권장하고 있는거죠.
로봇 기술 CTO의 AI 안전 문제에 대한 고민
Metronic의 기술 총괄인 Ken Washington은 로봇과 플랫폼에 AI가 구현될 때 특별한 조치가 필요한지 관련한 의견을 물어보며, 안전 문제와 AI의 잠재적 위험에 대해 이야기하는데요.
로봇이 사람을 다치게 할 수 있는 안전 문제와 AI 위험에 대한 우려를 지적하며, 인간을 해칠 수 있는 위험성을 방지하기 위해 넓은 범위의 모델을 발견하고 예방해야 한다고 강조하고 있습니다.
AI 안전 문제에 대한 우려를 공유하며 제프리 힌튼과 샘 알트먼의 발언을 언급하고, AI가 생물학적 지식을 활용하여 위험성을 초래할 수 있다는 점을 강조하고 있습니다.
시스템이 해로운 내용을 출력하거나 악의적인 행동을 부추길 수 있는 위험성에 대한 우려를 표현하고, 로봇 및 AI 기술의 발전에 대한 안전 문제에 대해 걱정해야 한다는거죠.
인공지능 증가에 따른 존재 위험과 걱정
단기적 위험은 편견과 정보 오류로 인한 또 다른 문제가 발생한다는건데요.
중기적으로 모델이 발전함에 따라 과학, 공학, 생물학 등에서 악용 가능하며, 자유로운 특성을 가진 모델이 등장할 경우, 독립성을 제어하기가 어려운 거죠.
최종적으로, 영향력있는 존재 위험에 대한 우려가 항상 있습니다.
위험이 당장 내일 일어나지 않겠지만, 인공지능의 기하급수적 발전은 위험을 끝으로 한다는 사실을 이해해야 하는거죠.
오픈된 내용과 폐쇄적 모델 간 균형 유지는?
오픈소스 모델은 좋긴 하지만, 다수의 이유로 오픈소스 모델은 통제가 어려운 특징이 있는데요.
사람들은 새로운 기술의 영향에 대해 걱정하며, 위험이 크고 전체적으로 이해되지 않는다는 점에 대해 우려하고 있는거죠.
저는 10~20% 정도의 위험이 실패로 이어질 수 있다고 생각하지만, 결국에는 방지하기 위해 노력해야 한다고 생각해요.
'기술과 세상읽기' 카테고리의 다른 글
메타, GPT 4급 AI 라마3 출시, Meta가 AI를 무료로 푸는 진짜 이유는? (1) | 2024.04.23 |
---|---|
빅데이터때문에 면접 떨어진 경험, 다들 있으신가요? (1) | 2024.04.19 |
인공지능은 진심으로 공감할 수 없다 (0) | 2024.04.14 |
우리는 짧은 즐거움에서 벗어나기 위해 인스타그램을 삭제해보자 (6) | 2024.04.11 |
데이터는 왜 돈이 되는가? (0) | 2024.04.08 |