[13]
sabotage110 | 25/12/08 | 조회 5 |루리웹
[0]
제노로스 | 25/12/03 | 조회 2 |루리웹
[4]
ㄹㅇ이가 | 25/12/08 | 조회 49 |루리웹
[22]
용호동불갈비 | 25/12/08 | 조회 41 |루리웹
[11]
명빵 | 25/12/08 | 조회 19 |루리웹
[27]
루리웹-719126279 | 25/12/08 | 조회 10 |루리웹
[24]
루리웹-8017187285 | 25/12/08 | 조회 36 |루리웹
[2]
루리웹-222722216 | 25/12/07 | 조회 10 |루리웹
[6]
메사이안소드 | 25/12/07 | 조회 20 |루리웹
[9]
Hodback | 25/12/07 | 조회 7 |루리웹
[0]
wizwiz | 25/12/07 | 조회 39 |루리웹
[0]
검은투구 | 25/12/01 | 조회 102 |루리웹
[0]
안면인식 장애 | 25/12/07 | 조회 45 |루리웹
[13]
루리웹-0114726476 | 25/12/08 | 조회 36 |루리웹
[4]
서비스가보답 | 25/12/07 | 조회 40 |루리웹
정확도가 ㅅㅂ인데 배우면뭐하나 다까먹는데
내 지식은 아직 아무도 못 훔쳐감
이딴게 룰 브레이커? 읔 역겨워.
근데 맞는 말임
AI 학습을 위한 데이터가 거의 없어서 AI로 AI 학습 데이터를 만들어서 학습 -> 성능 저하 중이라..
크롤링좀 작작해 새끼들아
유저의 답변이나 선택을 기준으로 정확도를 높인다거나
정답을 고르는 ai를 개발하거나
메신저가 그렇긴 한데 메시지 자체는 팩트에 가까움
이제 LLM 모델 학습을 위해 AI에게 먹일, 사람이 쓴 오-가닉 데이터는 online 상태인 건 거진 다 먹였음
그리고 25년도는 예측이긴 하지만 AI로 생성된 데이터가 사람이 만든 데이터보다 더 많은 첫번째 해임
그러니까 이 이후 데이터를 그냥 생각없이 먹이면 AI 데이터를 AI가 재학습해서 데이터 오염이 심하게 발생하게 됨
이제 AI 생성 방법 자체를 바꾸든가 LLM 학습시에 AI 생성 데이터를 필터링하든가 해야됨
물론 이전보단 AI 학습 / 생성 효율이 떨어지게 되겠지...