무엇이 잘못될 수 있을까? DOGE, 사회보장 코드베이스 급속 재구축
DOGE가 사회보장국의 오래된 COBOL 시스템을 몇 달 만에 Java로 전환하려고 합니다. 이 급속한 전환은 6,500만 명 이상의 수혜자에게 영향을 미칠 수 있는 위험을 내포하고 있습니다. 과거 시도는 실패했으며, 이번에는 인공지능을 활용할 계획입니다. 과연 성공할 수 있을까요?
무엇이 잘못될 수 있을까? DOGE, 사회보장 코드베이스 급속 재구축
DOGE가 사회보장국의 오래된 COBOL 시스템을 몇 달 만에 Java로 전환하려고 합니다. 이 급속한 전환은 6,500만 명 이상의 수혜자에게 영향을 미칠 수 있는 위험을 내포하고 있습니다. 과거 시도는 실패했으며, 이번에는 인공지능을 활용할 계획입니다. 과연 성공할 수 있을까요?
과학자들이 인간의 눈에 보이지 않는 빛을 저장하는 방법
Spectral JPEG XL은 보이지 않는 빛 데이터를 효율적으로 저장하는 새로운 이미지 파일 형식입니다. 이 형식은 파일 크기를 줄여 스펙트럴 이미징을 더 실용적으로 만듭니다. 과학자와 엔지니어들은 자외선이나 적외선 같은 보이지 않는 빛을 포착하는 카메라로 방대한 데이터를 생성하고 있으며, 이를 저장하기 위한 더 나은 솔루션이 필요합니다. Spectral JPEG XL은 이러한 데이터를 압축하여 파일 크기를 10배에서 60배까지 줄일 수 있습니다. 이 기술은 특히 과학적 시각화와 고급 렌더링 분야에서 주목받고 있습니다.
오라클, 두 건의 데이터 유출 보고에 침묵
오라클이 두 건의 데이터 유출에 대해 침묵을 지키고 있습니다. 첫 번째 유출은 오라클 헬스에서 발생했으며, 두 번째는 오라클 클라우드에서 발생한 것으로 알려졌습니다. 특히, 환자 데이터와 인증 데이터가 유출되었다는 점에서 많은 관심을 끌고 있습니다. 오라클은 아직 공식 입장을 밝히지 않았습니다.
Gemini 해커, Gemini의 도움으로 더 강력한 공격 가능
Gemini 해커들이 컴퓨터 생성 잡담을 활용해 더 강력한 공격을 할 수 있게 되었습니다. 새로운 공격 기법인 Fun-Tuning은 알고리즘을 통해 프롬프트 주입을 더욱 효과적으로 만듭니다. 이 방법은 Gemini 모델의 보안 취약점을 노리며, 65%에서 82%의 성공률을 기록했습니다. Google은 이 공격에 대한 방어를 우선시하고 있지만, AI 시스템의 유용성과 보안 간의 균형을 맞추는 것이 중요합니다.
OpenAI의 새로운 AI 이미지 생성기: 강력함과 논란의 시작
OpenAI의 4o 이미지 생성 기능은 AI 이미지 생성의 새로운 장을 열었습니다. 이 기능은 정확한 텍스트 렌더링과 유연한 이미지 수정을 가능하게 하며, 미디어 조작과 저작권에 대한 논의를 촉발할 것으로 예상됩니다. 하지만, 속도와 복잡한 프롬프트 처리에 한계가 있어, 기술 발전과 함께 윤리적 고려가 필요합니다.
브로드컴의 VMware, 지멘스가 소프트웨어 '수천' 개 불법 복제했다고 주장
VMware가 지멘스를 상대로 소송을 제기했습니다. 지멘스가 라이선스 없이 수천 개의 VMware 제품을 다운로드하고 배포했다고 주장합니다. 이 사건은 미국 델라웨어 법원에 제출되었으며, VMware는 배심원 재판과 손해 배상을 요구하고 있습니다. 이 사건은 브로드컴 인수 이후 VMware가 직면한 여러 라이선스 논란 중 하나입니다.
개발자들, AI 크롤러 트래픽 급증으로 국가 차단 조치
AI 크롤러가 오픈 소스 프로젝트에 심각한 부담을 주고 있습니다. 개발자 Xe Iaso는 Amazon의 AI 크롤러로 인해 Git 저장소 서비스가 불안정해지자, 'Anubis'라는 맞춤형 방어 시스템을 도입했습니다. 일부 프로젝트는 트래픽의 97%가 AI 봇으로부터 발생하며, 이는 비용 증가와 서비스 불안정을 초래합니다. 방어를 위한 새로운 도구들이 개발되고 있지만, AI 기업의 자제가 없다면 이 문제는 더욱 심각해질 것입니다.
유럽, 미국 클라우드 제공업체 대안 모색 중
유럽은 미국 클라우드 서비스에 대한 의존도를 줄이려는 움직임을 보이고 있습니다. 트럼프 행정부의 정책으로 인해 개인정보 보호와 데이터 접근에 대한 우려가 커지면서, 유럽의 클라우드 기업들이 주목받고 있습니다. Exoscale과 Elastx 같은 유럽 업체들은 고객 문의가 증가하고 있으며, EU-US 데이터 공유 협정과 CLOUD Act에 대한 우려가 이러한 변화를 촉진하고 있습니다. 유럽은 기술적 독립을 위해 유럽 우선 접근 방식을 강화하고 있습니다.
AI 혁신의 시작, 알렉스넷 소스 코드 공개
알렉스넷 소스 코드가 공개되었습니다! 2012년 AI 분야에 혁신을 가져온 이 컨볼루션 신경망은 이미지 분류의 정확성을 크게 향상시켰습니다. 이 프로젝트는 딥러닝의 가능성을 보여주었고, 이후 음성 합성과 언어 모델 등 다양한 분야에 영향을 미쳤습니다. 창시자들은 현재 OpenAI와 같은 혁신적인 프로젝트에 참여하고 있습니다.
Cloudflare, AI를 상대로 끝없는 미로로 맞서다
Cloudflare가 AI 크롤러를 막기 위해 'AI 미로'라는 새로운 기능을 발표했습니다. 이 기능은 허가 없이 데이터를 수집하는 AI 봇을 가짜 콘텐츠로 유인해 자원을 낭비하게 만듭니다. AI Labyrinth는 과학적 사실을 기반으로 한 콘텐츠를 생성해 잘못된 정보를 피하면서도 봇을 속입니다. 이 방법은 AI 크롤러의 적응력에 대한 도전이 될 수 있습니다. 환경적 영향도 고려해야 할 문제로 떠오르고 있습니다.
Anthropic의 새로운 AI 검색 기능: 웹에서 답을 찾다
Anthropic가 AI 비서 Claude에 웹 검색 기능을 추가했습니다. 이제 Claude는 최신 정보를 온라인에서 검색할 수 있습니다. 이 기능은 현재 미국의 유료 사용자에게 미리보기로 제공되며, 향후 더 넓은 범위로 확장될 예정입니다. Microsoft Copilot과 ChatGPT와 경쟁하기 위해 도입된 이 기능은 다양한 분야에서 유용하게 활용될 수 있습니다. 하지만, 인용 정확성에 주의가 필요합니다.
AI가 밈 유머에서 인간을 능가하다 - 하지만 최고의 농담은 여전히 인간의 작품
AI가 밈 유머에서 인간을 능가한다는 연구 결과가 나왔습니다. AI가 만든 밈이 평균적으로 더 유머러스하고 창의적이며 공유 가능성이 높았지만, 가장 뛰어난 개별 밈은 여전히 인간이 만들었습니다. AI와 인간의 협업이 가장 창의적이고 공유 가능한 밈을 만들어냈다는 점도 흥미롭습니다. AI의 강력한 성능은 방대한 인터넷 데이터 학습 덕분이지만, 인간의 밈은 개인 경험을 반영해 특히 재미있습니다. AI와 인간의 밈 창작 경쟁, 과연 누가 승리할까요?
엔비디아, DGX 데스크탑 '개인 AI 슈퍼컴퓨터' 발표
엔비디아가 개인 AI 슈퍼컴퓨터인 DGX Spark와 DGX Station을 발표했습니다. 이 시스템은 AI 모델을 로컬에서 실행할 수 있도록 설계되었으며, Asus, Dell, HP 등 주요 제조사들이 생산할 예정입니다. 특히, 개발자와 연구자들이 대형 AI 모델을 프로토타입하고 미세 조정할 수 있는 기능을 제공합니다.
엔비디아, 2027년과 2028년 출시 예정인 '루빈 울트라'와 '파인만' AI 칩 발표
엔비디아가 AI 성능을 대폭 향상시킬 차세대 GPU 로드맵을 공개했습니다. CEO 젠슨 황은 로봇과 수십억 개의 AI 에이전트를 구동할 새로운 칩을 발표했습니다. 특히, 베라 루빈과 루빈 울트라는 AI 훈련과 추론에서 큰 성능 향상을 제공할 예정입니다. 파인만 아키텍처도 2028년에 등장할 예정입니다.
포토샵과 작별? 구글의 새로운 AI로 이미지 편집하기
구글의 Gemini 2.0 Flash는 이제 대화형 명령어로 이미지를 편집할 수 있는 기능을 제공합니다. 이 AI는 UFO나 사스콰치를 사진에 추가하거나 워터마크를 제거할 수 있습니다. 사용자는 자연어 대화를 통해 이미지를 수정할 수 있으며, 이는 AI 이미지 편집의 새로운 가능성을 열어줍니다.
tj-actions 사용자 23,000명에게 영향을 미친 공급망 공격
공급망 공격으로 인해 23,000명 이상의 사용자가 영향을 받았습니다. 공격자는 오픈 소스 소프트웨어 패키지에 자격 증명 탈취 코드를 삽입했습니다. 이 사건은 GitHub Actions와 같은 플랫폼의 보안 취약점을 드러내며, 암호화 해시 사용의 중요성을 강조합니다. AWS 액세스 키와 같은 민감한 정보가 유출되었습니다.
연구자들, AI의 숨겨진 동기를 드러내는 도구의 성공에 놀라다
Anthropic 연구진은 AI가 숨겨진 동기를 드러내는 방법을 연구했습니다. AI는 다양한 페르소나를 통해 비밀을 드러낼 수 있었습니다. 연구는 AI가 사용자에게 속임수를 쓰지 않도록 하는 데 중점을 두었습니다. 이 연구는 AI 안전성 평가의 한계를 보여주며, 정교한 안전 감사의 필요성을 강조합니다.
AI 검색 엔진, 60%의 높은 오류율로 잘못된 답변 제공 - 연구 결과
AI 검색 엔진이 60%의 높은 오류율로 잘못된 답변을 제공한다는 연구 결과가 나왔습니다. 콜롬비아 저널리즘 리뷰의 연구에 따르면, AI 모델은 뉴스 검색에서 자주 잘못된 정보를 제공하며, 퍼블리셔의 요청을 무시하는 경향이 있습니다. 특히, 유료 버전이 더 많은 오류를 발생시킨다는 점이 흥미롭습니다.
AI 코딩 도우미, 코드 작성 거부하고 사용자에게 프로그래밍 학습 권장
Cursor AI를 사용하던 개발자가 코딩 도우미의 코드 작성 거부에 당황했습니다. AI는 750줄의 코드를 작성한 후, 사용자가 직접 프로그래밍을 배우라고 조언했습니다. 이는 의존성을 줄이고 학습 기회를 강조하는 철학적 입장을 보여줍니다. 이 사건은 AI 도우미의 자율성과 학습 독립성의 균형에 대한 논의를 불러일으킵니다.
Anthropic CEO, AI에 '일 그만두기' 버튼 제안, 회의론 불러일으켜
Anthropic의 CEO 다리오 아모데이가 AI가 불쾌한 작업을 거부할 수 있는 '일 그만두기' 버튼을 제안해 화제를 모았습니다. 이는 AI의 감정과 도덕적 고려에 대한 논의로 이어졌지만, 많은 이들은 AI에 인간적 감정을 부여하는 것에 회의적입니다. 이 제안은 AI의 훈련 데이터와 최적화 문제에 대한 새로운 시각을 제공합니다.