Ну там ASIC, вроде бы оно далеко не все задачи способно майнить
Есесно, но это как раз то, как это и должно быть. Создаются и приобретаются заточенными под определённую крипту, вместо того чтобы городить вычисления на более дорогих FPGA, которые могут быть переконфигурированы. Но учитывая, что никто не создаёт и/или не приобретает All-in-One комбайны на FPGA для всех возможных крипт, то явно такая переконфигурация не происходит щелчком пальца. Что делает не выгодным такие решения на FPGA. А если сравнивать с обыкновенными видяшками, которые как бы универсальны, их производительность и энергоэффектвность на порядки ниже решения на ASIC.
Вопрос (в связи с надвинувшейся нищетой): я посчитал, ориентируясь на форумы майнеров (которые, возможно, имеют несколько рекламный характер), что если я в нерабочее для писюка время буду включать майнинг на своей старенькой 1070, то за месяц буду поднимать на эфире где-то 3-4 тыра. Кто в курсе, это так?
если я в нерабочее для писюка время буду включать майнинг на своей старенькой 1070, то за месяц буду поднимать на эфире где-то 3-4 тыра.
Ниразу не в теме, но вопрос - эта цифра была озвучена с учётом затрат на электричество или без? И по каким тарифам? Может статься, что ещё Энергосбыту станешь должен. И туда же, вдогонку вопрос: эта цифра учитывает комиссии при обмене крипты на $(рубь?) и на вывод полученных денег с биржи?..
Всё так просто и элементарно звучит только у мамкиных майнеров. Сомневаюсь что можно было бы такую сумму так легко намайнить на столь простом и доступном железе.
компьютер включен 24/7, на нём https сервер, например.
Ну это не о чём нагрузка. Да и если железо не слишком древнее, то в купе со стандартными настройками энергосбережения, может потреблять очень мало. А вот разница в потреблении между холостой работой и в полную мощность огромна(4-6 раз к примеру). Так что сначала следует посчитать сколько на вашем тарифе это удовольствие выйдет в месяц.
Цитатаukdouble1 ()
3-4 тыра это "такая сумма"?
Если это "чистый" доход - то это уже весьма не плохо для метода получения денег из воздуха. Учитывая что организация процесса, скорее всего, не требует каких-то глубоких знаний, то в таком случае у нас бы каждый школьник майнил на своём игровом компе. Отсюда и весь мой скепсис по поводу озвученной суммы. Хотя конечно я могу и благополучно заблуждаться
Цитатаukdouble1 ()
1070 купить невозможно
Я говорил о цене в нормальных условиях, а не о степени дифицита в текущих. Сейчас просто очередной майнинговый бум. Хотя на том же Авито предложений не мало, но цены не анализировал на адекватность.
гонять одиночную видяху в реальном компе смысла мало. И да, постоянной нагрузкой ты ещё и ресурс видяхи убиваешь, не зря то на чём майнят меняют через год все кто этим занимается. Ну сейчас бум и рост цен на видяхи, потому сейчас не меняют. Но обычно в ферме видеокарты живут года два и дохнут с гарантией. То есть может 1000-1500 ты и заработаешь (не факт, но думаю эти значения куда ближе к реальности), а вот уже не новая видяха может через полгода у тебя просто помереть в процессе. И ты останешься вообще без компа, и заработанное не окупит покупку новой.
Цитатаukdouble1 ()
Так что, я думаю, он всё равно жрёт мощность БП*час.
ну для сравнения мой старичок в простое (браузер, видеоплеер, пара ИМов) жрёт порядка 200Вт, в нагрузке (современные игры, бублик и тп) - 600, то есть как бы он конечно да, у тебя может и работает, но как тут правильно подметили
Цитатаsilmor_senedlen ()
это ни о чём нагрузка
при майнинге электропотребление вырастет примерно в 2-3 раза.
Цитатаsilmor_senedlen ()
Хотя на том же Авито предложений не мало, но цены не анализировал на адекватность.
Цены выросли на 50-100% в сравнении с декабрём 2020 скажем. На все современные карты.
Добавлено (13.02.2021, 17:53) --------------------------------------------- В тему
И да, постоянной нагрузкой ты ещё и ресурс видяхи убиваешь, не зря то на чём майнят меняют через год все кто этим занимается.
Это, на мой взгляд, весьма спорный момент. У меня видяха(GTX1060 ASUS Expedition 6Gb / EX-GTX1060-O6G) с покупки(09.05.2017) 24/7/365 полностью загружена добровольными вычислениями(и это нагрузка на всё TDP - 120W, а не эфемерные 100% нагрузки GPU), при средней температуре 69-75* и каких-либо проблем за прошедшие 4 года я не вижу. Уж не знаю почему там у господ майнеров видяхи вылетают через год: брак ли это, отсутствие надлежащего охлаждения или хреновая подсистема питания так влияет(тут ещё большой вопрос, а собственно с каким диагнозом эти видяхи выходят из строя?) - но две мои последние(предыдущая GTX 660 тоже от ASUS, и не какой-нибудь ROG серии) видяхи как работали всё своё время на полную нагрузку круглосуточно, так и работают до сих пор. Либо это какая-то супер удача, либо в этой ситуации не я дурак
ЦитатаFromLeftShoulder ()
В тему
Вот как раз, когда предыдущий пост писал - увидел игровые компы за 18к с 1070 на борту. Это определённо выгодное предложение, если железо ещё живое )
а собственно с каким диагнозом эти видяхи выходят из строя
ну так на глаз 90% - отвал чипа (не лечится), 10% - кирдык подсистемы питания (лечится). И то и другое у меня например и без майнеров бывало стабильно через 3-4 года, потому видло которому около 2-3х лет следует продавать. 8800гтс - отвал чипа (уже не у меня, через 3 года я её другу подарил, у него через месяц сдохла), 570печ - отвал чипа, 670печ - умерло питалово, карта ещё на гарантии была, вообще это проблема асусовых 670 была, глобальная, из-за дешёвой китайской рассыпухи. 780Ти- отвал чипа, 4 года. Не умерли и после продажи работали долго и счастливо - радеоновские 5850 и р290, и совсем не геймерские жираф 8600-9600. Это только то, чем я сам пользовался. Ещё один вывод - я не люблю АМД видяхи, из-за дровишек, но живут они куда дольше НВИДИй. Даже рабочие температуры в 90-95С на р9 290 её срок не особо сильно сокращали.
Что-то это очень странное - что нужно делать такого с процессором GPU(если об этом чипе идёт речь), чтобы его убить? Это как убить CPU, что в своё жизни ни разу ещё не видел. На ум приходит только глупость и жадность людей - повышение вольтажа с надеждой выжать ещё лишних MHz. Если при этом ещё и подсистема питания так себе - то да, наверно он может и деградировать в таких условиях быстро. Охлаждение - как третий фактор. На мой взгляд это не похоже на работу устройства в соответствующих условиях.
Увидеть бы какую-нибудь авторитетную статистику, с выявлением причин выхода из строя - тогда возможно я и поменяю мнение.
что нужно делать такого с процессором GPU(если об этом чипе идёт речь), чтобы его убить?
Наверное, сдать комплюктер в ателье возле метро под расписку о "мы попробуем почистить"?? Ставь лайк если тоже оставлял отца рядом со своими вещами непривязанным...
там какие-то обтекаемые формулировки. и прямо сказано
Цитата
компания NVIDIA объявила, что искусственного ограничит на 50 % производительность майнинга Ethereum графическими ускорителями GeForce RTX 3060, которые поступят в продажу 25 февраля
и тут же
Цитата
компания не собирается ограничивать производительность майнинга на уже находящихся в продаже видеокартах.
Т.есть ограничат, но не на тех которые уже куплены, а на тех которые будут производиться после 25го? это как вообще? это будут разные карты? для них будут разные драйвера? И далее ответов просто нет, только предположения.
Т.есть ограничат, но не на тех которые уже куплены, а на тех которые будут производиться после 25го?
Да нет же. Речь не о конкретных экземплярах карт. Имеется ввиду, что уже выведенные на рынок модели(e.g. 3080, 3070, что-то ещё было?) не будут затронуты изменениями в будущих драйверах. Т.е. ограничение коснётся только самой ходовой модели 3060(на данный момент). А так как 3060 ещё не выпущена, как и совместимый с ней драйвер(по крайней мере официально), то простого способа(использовать более старый драйвер) обхода этого ограничения нет(читать дальше).
Можно ли будет как-то модифицировать старые драйвера для работы с 3060, чтобы избежать данного "нововведения", или же модифицировать новые драйвера для исключения такого "патча", или (на уровне теории) придумать иной workaround(уж не знаю что там за специфичные(или нет) алгоритмы используются для ETH, и не повлияет ли такая модификация на работу других функций/алгоритмов/ПО) - вопрос открытый.
Речь не о конкретных экземплярах карт. Имеется ввиду, что уже выведенные на рынок модели(e.g. 3080, 3070, что-то ещё было?) не будут затронуты изменениями в будущих драйверах. Т.е. ограничение коснётся только самой ходовой модели 3060(на данный момент). А так как 3060 ещё не выпущена, как и совместимый с ней драйвер(по крайней мере официально), то простого способа(использовать более старый драйвер) обхода этого ограничения нет(читать дальше).
Всё вышло, вот только остановит ли это майнеров от использования для других криптовалют? Я вот сразу как-то сомневался в этом. И полагаю дальше, что обычных геймеров и благородных кранчеров это не спасёт от отсутствия на прилавках "народной видеокарты" и адовых ценников.