On Artificial Intelligence
108 subscribers
27 photos
36 files
466 links
If you want to know more about Science, specially Artificial Intelligence, this is the right place for you
Admin Contact:
@Oriea
加入频道
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
#آموزش

همانطور که میدانید چند وقتیه که گوگل کولب GPUهای Tesla V4 با مشخصات زیر را به صورت رایگان در اختیار محققان قرار داده

16GB of VRAM
160 TFLOPS of GPU power

اما این که چه موقع GPUی K80بهتون بده چه موقع Tesla V4 دست خودتون نیست،
ممکنه به دلایلی مثل استفاده از GPU قوی تر یا مثلا عدم ساپوت K80 از کد شما (مثل دیتابیس Blazing SQL که روی Tesla V4 اجرا میشه ولی روی K80 نه!) میخواهید حتما از تسلا استفاده کنید.
برای اینکار فعلا تنها راهی که من میدونم میشه کرد اینه که کرنلتون را ریست کنید:

Runtime -> Reset all runtimes...

حالا از کجا بفهمیم چه GPUی بهمون داده؟
یه روش ساده که استفاده از دستور
!nvidia-smi

تو نوت بوکه.
روش دیگه اینه که کد زیر را اول نوت بوک یا کد پایتونیتون بزارید که اگر GPU مورد نظرمون را بهمون نداده بود Exception بده!


import pynvml


pynvml.nvmlInit()
handle = pynvml.nvmlDeviceGetHandleByIndex(0)
device_name = pynvml.nvmlDeviceGetName(handle)

if device_name != b'Tesla T4':
raise Exception("""
Unfortunately this instance does not have a T4 GPU.

Please make sure you've configured Colab to request a GPU instance type.

Sometimes Colab allocates a Tesla K80 instead of a T4. Resetting the instance.

If you get a K80 GPU, try Runtime -> Reset all runtimes...
""")
else:
print('Woo! You got the right kind of GPU!')

#colab #tesla #GPU
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)