본문 바로가기

Docker

(3)
Docker Volume 연결하기 docker run -d -it \--name \-v "/path/to/project:/root/project" \-e PYTHONPATH=/root/project \:​docker commit --pause :Docker 내부의 파일들과 외부의 파일을 연결하기 위해서는 bind mount를 통해 저장소를 이어줘야 한다.방법은 간단하다.docker run -d -it --memory="100g" --memory-swap="200g" --memory-reservation="20g" --gpus all --name dim --shm-size=40g -v "{내 컴퓨터의 경로}:{Docker 내부 경로}" -e PYTHONPATH=/root rnltls97/dim_diffusionmamba:latest와 ..
Docker로 Diffusion Mamba 학습하기 이전 포스팅에서, docker의 volume을 dataset이 위치하는 assets에만 걸어두었다.이유는 학습한 모델이 어디에 저장되는지 몰랐기 때문인데, 나중에 볼륨을 추가로 걸어주면 될 테니 큰 걱정은 하고있지 않는다.추가적으로, docker file에서 root를 걸을 때, root에 기존 file을 모두 copy, 즉COPY . /root/을 하는것 보다는,COPY . /root/DIM/과 같이 새로운 폴더를 만들어서 한 뒤, 전체 폴더를 volume으로 연결하는 작업을 진행해보고 싶다.-> 이렇게 하면 전체 코드를 volume과 연결해도 mamba를 잘 로드할 수 있을 것이라고 "추측" 하고 있다. DiM 학습을 진행하면서, 다음과 같은 문제들이 발생했다. 문제 1: cannot import n..
Docker로 Mamba 시작하기 Mamba Module을 사용하기 위해서는, Linux 를 요구한다고 한다..물론, 능력자들이 Windows에서도 수행할 수 있는 방법을 알려줬지만 (https://github.com/state-spaces/mamba/issues/12), 나중에 무슨 문제가 생길지 걱정되었다.WSL로 몇 차례 시도했으나, 좋은 성과를 얻지 못해 Docker를 사용해 환경을 세팅하기로 했다.사수분의 도움으로, 기본적인 docker file은 어느정도 만들어져있는 상태였고, 나는 mamba를 위한 세팅이 추가적으로 필요했다. 아래와 같은 요구조건을 만족할 수 있도록 했다.1. cuda-toolkit Version이 11.6 이상일 것.2. torch.cuda.is_available()이 True가 나올 것. 내 WSL에서는..