Страницы: 1
поищите поиском, тут в этом разделе где-то была исправленная версия
Нашел только аналог этой кнопки, в виде расширения https://addons.mozilla.org/ru/firefox/addon/save-page-we/ но главное, он работает.
Спасибо за помощь.
shveicar Попробуй заменить nsILocalFile на nsIFile
Большое Спасибо.
Теперь заработало.
Одно не пойму, зачем они все время меняют код в новых версиях.
Видимо, по заказу гугла и компании, что бы пользователи контент не сохраняли..
Вот например, еще одна нужная кнопка (так как ScrapBook Plus в новой версии уже не пашет) - сохранение html страницы в одном файле:
[spoiler][code]var saveToFile = function (fileContent, fileName) {
var uc = Components.classes['@mozilla.org/intl/scriptableunicodeconverter'].createInstance(Components.interfaces.nsIScriptableUnicodeConverter);
uc.charset = 'utf-8';
fileContent = uc.ConvertFromUnicode(fileContent);
var nsIFilePicker = Components.interfaces.nsIFilePicker;
var fp = Components.classes['@mozilla.org/filepicker;1'].createInstance(nsIFilePicker);
fp.init(window, '', fp.modeSave);
fp.defaultString = fileName;
fp.appendFilters(fp.filterHTML);
fp.appendFilters(fp.filterAll);
if(fp.sh
Всем привет.
Помогите с этой кнопкой для запуска приложений и утилит:
startProcess("d:\\total\\TCIMGZ\\TCIMG.exe",["tcimg=$am_command_1"]); function startProcess(path, args) { var file = Components.classes["@mozilla.org/file/local;1"] .createInstance(Components.interfaces.nsILocalFile); file.initWithPath(path); if(file.exists()) { var process = Components.classes["@mozilla.org/process/util;1"] .createInstance(Components.interfaces.nsIProcess); process.init(file); process.run(false, args, args.length); } else custombuttons. alertBox ("Файл не найден", path); };
В 45 и 52 версиях работает, но после вынужденной миграции на Firefox ESR portable 60.8 уже нет.
Заранее благодарен, Спасибо.
Здравствуйте. Подскажите где можно найти Специалиста по правке scrapbook plus для версии например 15 (в 18 он в обще не работает) - Естественно не за бесплатно. Если кратко, то нужно добавить функцию выбора интервала времени между сохранением например не (1,2,3) а от 1-10 сек произвольный интервал и функцию паузы при появлении определенного ответа с сервера.
В общем аська - удалено
Здравствуйте. Не подскажете- можно ли в Scrapbook+ изменять паузу между закачкой, так что-бы она была - больше 3 секунд, Спасибо.
В Scrapbook можно указывать произвольную папку для хранения альбомов и их данных. Или это не то?
Спасибо за подсказку - то что надо!
На счет-телепорта - им удобно на мой взгляд - картинки выкачивать! Сколько раз проверял - на закрытых сайтах он не работает! (первое на что админы проверяют уязвимость сайта так это на него) - ну а корявое отображение html страниц я думаю не у кого не вызывает сомнения могу конечно привести примеры, но эта тема о другом.
internet researcher - я не проверял (надо будет попробовать) но еще раз повторюсь - речь идет именно о закрытых сайтах (например для взрослых http://www.hustler.com/Auth - имя:junichi pass:paraphre) попробуй его качни (точнее, все что касается не html) кроме scrapbook я пока ничего не нашел, хотя есть еще и httrack - но он в таких вещах хорош лишь для загрузки файлов вообще по поводу качалок есть тема на ruboard.-http://forum.ru-board.com/topic.cgi?for … art=400#lt Жаль конечно что автор плагина scrapbook видимо не предусмотрел таких на мой взгляд важных опций.
Ну да файлы типа sb-url2name.txt как я понимаю создаются после завершения загрузки проекта. А пока он не сохранен (загрузка с глубиной ссылок больше 0) его там нет.
это просто визуальное отображение адресов закачиваемых страниц
- тогда почему только одна(любая на выбор) ссылка может быть скопирована а группа ссылок нет?
Этот список нигде не сохраняется, да и зачем он нужен?
Поясняю способ сохранения - нашел, но он слишком усложненный (берем fast stone capture, захват с прокруткой, далее программа kleptomania(сразу прокрутка в окне scrapbook не работает), захват текста с прокруткой - и потом файл .тхт А нужно это для закачивания с защищенного сайта файлов - ссылки на которых обновляются каждые 30мин или более. А теперь представте ждать сутки или более пока проект загрузится и все ссылки можно будет извлечь - бессмысленно, а копировать по одной можно с ума сойти. Очень часто с защищенными сайтами качалки типа offline explorer или др - бессильны (про teleport
…какие ссылки? вы страницы сохраняли или ссылки? и то и другое извлекается экспортом (см. сообщение выше)
Спасибо, поясняю - в процессе работы scrapbook Plus открываем окно и видим отображение процесса закачки и множество ссылок вида
6 [24905] http://ссылка.com - в столбике которые добавляются по мере работы scrapbook - я имею ввиду ссылки из этого списка (выделить ведь их можно - а как скопировать) или надо ждать окончания всей закачки и только потом (textpipe) извлекать url ? В самом инструменте scrapbooka - я что-то не нашел таких функций.
А теперь разобрался! но у меня значения стоят dom.max_chrome_script_run_time 20
dom.max_script_run_time 10 так что проблема видимо не в этом.
А ссылки кая понял из scrapbook напрямую извлечь нельзя?
Спасибо А можно по подробнее, где находится этот файл (about:config) - пробовал найти total comanderom (находит файлы config но их много)
Здравствуйте
Подскажите как можно извлечь все ссылки из зависшего scrapbook plus (пытался разными способами скопировать ссылки, но scrapbook позволяет их только выделить и все)- Начал качать сайт выкачалось одна треть и scrapbook завис. (ссылок более 10 000) качал несколько дней, и что же теперь начинать все заново? Если такой вариант возможен можно не скаченные ссылки извлечь и добавить в качалку(например Download Master или др) Заранее благодарен.
Здравствуйте
Подскажите как можно извлечь все ссылки из зависшего scrapbook plus (пытался разными способами скопировать ссылки, но scrapbook позволяет их только выделить и все)- Начал качать сайт выкачалось одна треть и scrapbook завис. (ссылок более 10 000) качал несколько дней, и что же теперь начинать все заново? Если такой вариант возможен можно не скаченные ссылки извлечь и добавить в качалку(например Download Master или др) Заранее благодарен.
Страницы: 1