فروش سرور hp فروش سرور فروش سرور اچ پی

فروش سرور hp فروش سرور فروش سرور اچ پی

فروش سرور hp فروش سرور فروش سرور اچ پی

فروش سرور hp فروش سرور فروش سرور اچ پی

۴۸ مطلب در خرداد ۱۳۹۵ ثبت شده است

مجازی سازی با Hyper v

مایکروسافت همزمان با انتشار سیستم‌عامل سرور ویندوز 2012، پلتفرم مجازی‌سازی Hyper-V خود را نیز به‌روزرسانی کرد. این نرم‌افزار که نسل سوم آن عرضه شده است، رایگان بوده و به دو صورت نصب می‌شود یا همراه با ویندوز سرور ۲۰۱۲یا در قالب یک بسته  قابل نصب جداگانه. Hyper-V  شامل ویژگی‌ها و امکاناتی است که شما باید پیش از این برای به‌دست آوردن و استفاده از آن‌ها هزینه پرداخت می‌کردید. در حقیقت مایکروسافت Hyper-V را به عنوان یک امتیاز ویژه به کاربران سیستم‌عامل سرور خود هدیه می‌دهد تا آن‌ها را به استفاده از این سیستم‌عامل ترغیب کند. حتی Hyper-v امکاناتی را به همراه دارد که توسط دیگر ابزارهای Hypervisor به هیچ عنوان قابل دسترسی نیستند (مانند مهاجرت از یک سرور به سرور دیگر بدون نیاز به اشتراک‌گذاری و تبادل اطلاعات میان این دو سرور). Hyper-V از ویژگی‌های دسترسی بالا و تداومی (Resiliency) میزبان‌ها نظیر همانند‌سازی (Replication) یک سرور به صورت آف‌‌سایت به خوبی پشتیبانی می‌کند. همچنین می‌تواند برخی از کارها و عملیات‌ها را بسیار بهتر و کامل‌تر از سکوهای مجازی‌سازی VMware و Citrix فارغ از سیستم‌عامل (ویندوز دسکتاپ، لینوکس، ویندوز سرور و...) انجام دهد. به این مزایا، رایگان بودن این ابزار را نیز اضافه کنید. Hyper-V بخشی از مجوز ویندوز سرور 2012 است و می‌تواند روی یک سخت‌افزار مشخص، انواع ماشین‌های مجازی مبتنی بر سیستم‌عامل‌های دیگر را میزبانی کرده و با استفاده از یک محیط یکپارچه در ویندوز سرور 2012، یک مدیریت سراسری و مرتب را برای سخت‌افزار و ماشین‌های مجازی تعریف شده فراهم کند.

در این مقاله، نگاهی کلی به Hyper-V 2012 خواهیم انداخت و مهم‌ترین ویژگی‌ها و امکانات تازه این ابزار برای استفاده‌ شرکت‌های تجاری کوچک و متوسط بازار را بررسی خواهیم کرد. بسیاری از ویژگی‌های تازه Hyper-V هم‌اکنون در دیگر سکوهای مجازی‌سازی نیز یافت می‌شوند اما به اعتقاد من Hyper-V اهمیت بیشتری دارد؛ زیرا مایکروسافت توسعه‌دهنده آن است و این سکو را به‌صورت ساده و ارزان در سیستم‌عامل سرور خود گنجانده و به‌صورت یک بسته یکپارچه ارائه می‌کند. این ویژگی به‌صورت بالقوه برای سازمان‌ها صرفه‌جویی در هزینه‌ها را به همراه خواهد داشت و مدیران سیستم را از جهت سازگاری با سیستم‌های ویندوزی مطمئن می‌کند.

بیشترین، بزرگ‌ترین و ارزان‌ترین VM

در حال حاضر Hyper-V به‌طور قابل توجهی می‌تواند تعداد بیشتری میزبان مجازی را نسبت به محصولات مشابه پشتیبانی کند. با استفاده از آن می‌توانید روی یک سرور فیزیکی، سنگین‌ترین کارها را با حجم بار کاری بسیار زیاد، مجازی‌سازی کنید. Hyper-V هم روی ویندوز سرور 2012 و هم به‌صورت مستقل می‌تواند حداکثر از 320 هسته پردازنده و چهار ترابایت حافظه رم پشتیبانی کند و هر میزبان مجازی نیز می‌تواند طوری پیکربندی شود که روی 64 پردازنده مجازی و یک ترابایت حافظه رم اجرا شود. میزان فضای دیسک‌ مجازی برای هر میزبان مجازی نیز می‌تواند 64 ترابایت باشد (این ظرفیت با فرمت جدید VHXD درایوهای مجازی در ویندوز سرور 2012 به‌دست آمده است). با این مشخصات، به‌طور مثال روی یک Hyper-V می‌توان حداکثر 1024 ماشین مجازی را تعریف و اجرا کرد.

یکی از علت‌هایی که هم ویندوز سرور 2012 و هم Hyper-V از ظرفیت و تعداد پردازنده زیادی پشتیبانی می‌کنند و قابلیت مدیریت تعداد بیشتری ماشین مجازی را دارند، به پشتیبانی از قابلیت Non-Uniform Memory Architecture  برمی‌گردد. سیستم‌های غیریکنواخت (مبتنی‌بر NUMA) ، حافظه رم را به صورت بلوک‌هایی محلی (با دسترسی سریع) به پردازنده‌های خاص برای افزایش کارایی اختصاصی می‌دهند. این قابلیت باعث می‌شود که مقدار حافظه‌ای که باید به ماشین مجازی تعلق بگیرد، محدود شود و این موضوع، یک نقطه ضعف است. در Hyper-V از ویژگی جدید NUMA برای جبران این محدودیت استفاده می‌شود که به ماشین‌های مجازی اجازه می‌دهد، براساس حافظه تخصیص‌یافته به گره‌های مختلف، بتوانند از میزان حافظه بیشتری نسبت به حافظه از پیش تعریف شده برای یک ماشین مجازی استفاده کنند. این قابلیت باعث افزایش کارایی ماشین‌های مجازی می‌شود که توسط Hypervisor (مدیر ماشین مجازی) تعریف شده‌اند. بنابراین اگر شما ماشین‌های مجازی تعریف کرده‌اید که به حافظه بیشتری نسبت به آن چیزی که تخصیص داده شده است نیاز ندارند، می‌توانید قابلیت NUMA را غیرفعال کنید.

این سطح از پشتیبانی و ظرفیت در Hyper-V جدید در مقایسه با Hyper-V روی ویندوز سرور ۲۰۰۸  نگارش R2 قابل توجه و بسیار بیشتر است و حتی در مقایسه با محصول VMware’s vSphere 5 نیز یک ظرفیت بیشتر شمرده می‌شود. مزیت واقعی این ویژگی‌های جدید Hyper-V هنگامی مشخص می‌شود که روی ویندوز سرور 2012 با محیط و ابزارهای مدیریتی این سیستم‌عامل یکپارچه شده و توسط مدیر سیستم مورد استفاده قرار بگیرند. همچنین می‌توان Hyper-V را از راه دور و از طریق اسکریپت‌های نوشته شده یا دستورات خط فرمان که در ابزار PowerSell 3.0 اجرا می‌شوند، مدیریت و کنترل کرد.

آن‌چیزی که اهمیت «رایگان» بودن این ابزار مجازی‌سازی را بیشتر می‌کند، این است که برخلاف نسخه رایگان VMware’s ESXi، نسخه رایگان Hyper-V Hypervisor  از تمام ظرفیت‌ها، قابلیت‌ها و امکانات روی ویندوز سرور 2012 پشتیبانی می‌کند و محدودیتی برای آن در استفاده از پردازنده یا حافظه تعریف نشده است. Hyper-V Server 2012 از تمام ویژگی‌های یک نسخه مدیریت ماشین‌های مجازی (Hypervisor) پشتیبانی می‌کند و از تمام قابلیت‌های مدیریتی روی ویندوز سرور 2012 می‌توان استفاده کرد. اگر شما تصمیم ندارید ویندوز سرور 2012 را روی سیستم خود نصب کنید یا نمی‌خواهید از مجوز آن برای تعریف یک ماشین مجازی استفاده کنید و می‌خواهید ماشین‌های مجازی را روی نسخه‌های قدیمی‌تر ویندوز مانند ویندوز سرور 2008، ویندوز7، ویندوز 8 نسخه دسکتاپ و سیستم‌عامل‌های دیگر مشابه مانند لینوکس و... نصب کنید و از امکانات مجازی‌سازی دسکتاپ آن‌ها یا ابزار مدیریتی مایکروسافت بهره ببرید، به Hyper-V Server 2012 نیاز خواهید داشت.

حتی اگر شما از ابزارهای مدیریتی مایکروسافت مانند System Center 2012 استفاده می‌کنید و تمایل دارید خیلی ساده و راحت با ابزار مدیریتی Hyper-V در ویندوز سرور 2012 کار کنید، دیگر نیازی به استفاده از ابزارها و محیط‌های مدیریتی مجازی‌سازی دیگر ندارید(زیرا ابزار مدیریتی Hyper-V کامل و دارای قابلیت‌هایی است که برای یک کاربر معمولی کافی است). حتی در این وضعیت مهم نیست که چه سیستم‌عاملی روی ماشین مجازی تعریف شده، نصب شده است. اگر تمایل دارید تعداد زیادی ماشین مجازی مشابه هم روی یک سرور Hyper-V تعریف و مستقر کنید، با استفاده از ابزار PowerShell و اسکریپت‌هایی که وجود دارد، می‌توانید یک پیکربندی یکسان را روی تمامی ماشین‌های مجازی اعمال کنید و از انجام تمامی کارهای پیکربندی به‌صورت دستی خودداری کنید. حتی می‌توانید برای نگه‌داری و تعمیر ماشین‌های مجازی از اسکریپت‌ها استفاده کنید. به عنوان مثال، می‌توانید اسکریپتی بنویسید که مجموعه‌ای از ماشین‌های مجازی خاموش را از روی یک سرور در ساعت غیر اوج کاری به روی سرور دیگری برای صرفه‌‌جویی بیشتر انرژی منتقل کند. Hyper-V Manager همان شکل و شمایل و تجربه کار کردن را به شما القا می‌کند که دیگر ابزارهای مدیریتی ویندوز دارند (البته این ابزار در ویندوز سرور 2012 همانند رابط کاربری گرافیکی ویندوز8 است) .

این ابزار یک ویزارد دارد که می‌توانید بیشتر کارهای یک ماشین مجازی مانند ساخت یک ماشین یا دیسک مجازی جدید، Import و Export کردن ماشین‌های مجازی، تنظیمات پاسخ‌گویی و همانند‌سازی یا انتقال یک ماشین مجازی از روی یک دستگاه ذخیره‌سازی فیزیکی به یک دستگاه ذخیره‌سازی فیزیکی دیگر را به کمک آن انجام دهید ..

 دو ویژگی پویا

Hyper-V از دو ویژگی پویا در هنگام تعریف و اضافه‌کردن ماشین‌های مجازی استفاده می‌کند. این دو ویژگی، تخصیص پویای حافظه و فضای ذخیره‌سازی در هنگام راه‌اندازی آن‌ها است. به این‌صورت که می‌توانید به ماشین‌های مجازی مجوز بدهید تا در صورت نیاز از حافظه و فضای ذخیره‌سازی بیشتری که در دسترس است، استفاده کنند. VHD پویا امکان تعریف یک اندازه مشخص برای حافظه و فضای دیسک ماشین‌های مجازی به صورت نرم‌افزاری را فراهم می‌کند اما اجازه می‌دهد که ماشین‌های مجازی براساس میزان مصرف مورد نیاز خود، فضای بیشتری از دیسک فیزیکی را استفاده و اطلاعات بیشتری را روی آن ذخیره کنند. ویژگی تخصیص پویای حافظه رم در Hyper-V از ویندوز 2008 R2 شروع شده است و معادل آن در نرم‌افزار VMware با نام «Overprovisioning» شناخته می‌شود؛ اگرچه این دو در نحوه کار تفاوت‌ اندکی با یکدیگر دارند. این ویژگی در Hyper-V 2012 به نام « Smart Paging» شناخته می‌شود. به هر حال Hyper-V می‌تواند حافظه رم را به‌صورت پویا از یک ماشین مجازی به ماشین‌مجازی دیگر، تخصیص بدهد و براساس بار کاری که ماشین‌های مجازی دارند، Hypervisor مقدار حافظه تخصیص داده شده به هر ماشین مجازی را تغییر دهد. اما از سوی دیگر  Smart Paging می‌تواند فضای دیسک ذخیره‌سازی اطلاعات روی یک ماشین مجازی را به‌صورت حافظه رم مجازی استفاده کرده و به صورت موقت به یک ماشین مجازی تخصیص دهد. هنگامی که یک ماشین مجازی شروع به کار می‌کند یا ری‌استارت می‌شود و مقدار حافظه رم کافی برای پشتیبانی از آن وجود ندارد و حافظه رم اصلی نمی‌تواند از ماشین‌های مجازی دیگر، مقدار حافظه مورد نیاز را تأمین کند، از Smart Paging به جای حافظه رم استفاده می‌شود تا هنگامی که حافظه رم کافی از سوی دیگر ماشین‌های مجازی تأمین شود و در این مدت کارایی سیستم کاهش نیابد و نرخ دسترسی به دیسک فیزیکی دچار افت نشود

آمریکا خود را برای قیامت سایبری آماده کرده است؟

مرکز تحقیقات پیشرفته دفاعی امریکا، دارپا، مدعی است برای هر نوع حمله سایبری وسیع به تأسیسات زیربنایی آمریکا آماده است.

به گزارش خبرآنلاین، ظاهراً برنامه‌ای موسوم به RADICS در وزارت دفاع آمریکا تدوین‌شده تا واکنشی به حمله سایبری بزرگ به تأسیسات زیربنایی ازجمله آب و برق و تأسیسات اتمی این کشور باشد.
هدف این برنامه مواجه با آنچه «قیامت سایبری» خوانده می‌شود، است تا در صورت از بین رفتن تأسیسات زیربنایی مرتبط باانرژی و سوخت، بتواند این کشور را همچنان زنده نگه دارد!

طبق این برنامه 7 روز طول می‌کشد تا پس از حمله، تأسیسات ضروری در سراسر آمریکا دوباره به فعالیت خود ادامه دهند.
البته جان اورت مدیر برنامه‌های دارپا می‌گوید اگر امروز قیامت سایبری رخ دهد، چالش بزرگ امنیت ملی خواهند داشت، چراکه علاوه بر آسیب‌های اقتصادی و هزینه‌های انسانی، برای سرپا نگه‌داشتن لجستیک نظامی نیز باید هزینه‌های زیادی متحمل شد که این موضوع کار را در برابر بحران‌های بین‌المللی ناشی از حملات سایبری افزایش می‌دهد.
ظاهراً در گزارش‌های دارپا، تأسیسات اتمی ایمن گزارش‌شده‌اند که کمترین حمله سایبری را خواهند داشت اما اگر اتفاقی برای این تأسیسات به هر دلیل رخ دهد(اتفاقی مشابه فاجعه اتمی فوکوشیمای ژاپن در سال 2011)، توانایی جلوگیری از نشت اتمی بسیار کم گزارش‌شده است.
در این گزارش پروتکل‌های امنیتی در سایر تأسیسات زیربنایی آمریکا ضعیف ارزیابی‌شده است و جالب اینجاست پسورد 1234 در برخی سیستم‌های حساس انرژی در آمریکا طبق این گزارش یافت شده است!
یکی از برنامه‌های زیرمجموعه پروژه RADICS تحقیق درباره ساخت سیستمی است که بتواند بدافزارها را در هر حالتی شناسایی و خنثی کند.
مایکل راجرز مدیر NSA سال گذشته تأیید کرد که چین توانایی ایجاد یک قیامت سایبری برای آمریکا را در بخش تاسیسات زیربنایی و انرژی دارد.

بر اساس آخرین گزارش رسمی منتشر شده از سوی مرکز Akami مشخص شد میانگین سرعت دسترسی به اینترنت در جهان به ۵.۱ مگابیت در ثانیه رسیده است و بیش از ۶۵ درصد کاربران اینترنتی جهان با سرعت بالای ۴ مگابیت در ثانیه به این شبکه متصل می‌شوند.

کره جنوبی همچنان عنوان نخست در لیست پرسرعت‌ترین ارائه‌دهندگان خدمات اینترنتی جهان را به خود اختصاص داده است و مردم آن با میانگین سرعت ۲۰.۵ مگابیت در ثانیه پرسرعت‌ترین اینترنت جهان را در اختیار دارند.

میانگین سرعت اینترنت در ۱۰ کشور اول لیست Akami نیز ۱۴.۵ مگابیت در ثانیه گزارش شده است که از جمله این کشورها می‌توان به سوئد، نروژ، سوئیس، هنگ کنگ، هلند، ژاپن، فنلاند، لاتویا و جمهوری چک اشاره کرد.

لیست ۱۰ کشور برتر که بالاترین سرعت اینترنت را به مردم خود ارائه می‌دهند، با میانگین سرعت آنها به قرار زیر اعلام شده است:

۱- کره جنوبی – میانگین سرعت اینترنت در فصل سوم امسال: ۲۰.۵ مگابیت در ثانیه – تغییر نسبت به مدت مشابه سال قبل: ۱۹ درصد کاهش
۲- سوئد – میانگین سرعت اینترنت در فصل سوم امسال: ۱۷.۴ مگابیت در ثانیه – تغییر نسبت به مدت مشابه سال قبل: ۲۳ درصد افزایش
۳- نروژ – میانگین سرعت اینترنت در فصل سوم امسال: ۱۶.۴ مگابیت در ثانیه – تغییر نسبت به مدت مشابه سال قبل: ۴۴ درصد افزایش
۴- سوئیس – میانگین سرعت اینترنت در فصل سوم امسال: ۱۶.۲ مگابیت در ثانیه – تغییر نسبت به مدت مشابه سال قبل: ۱۲ درصد افزایش
۵- هنگ کنگ – میانگین سرعت اینترنت در فصل سوم امسال: ۱۵.۸ مگابیت در ثانیه – تغییر نسبت به مدت مشابه سال قبل: ۲.۷ درصد کاهش
۶- هلند – میانگین سرعت اینترنت در فصل سوم امسال: ۱۵.۶ مگابیت در ثانیه – تغیر نسبت به مدت مشابه سال قبل: ۱۲ درصد افزایش
۷- ژاپن – میانگین سرعت اینترنت در فصل سوم امسال: ۱۵.۲ مگابیت در ثانیه – تغییر نسبت به مدت مشابه سال قبل: ۰.۲ درصد افزایش
۸- فنلاند – میانگین سرعت اینترنت در فصل سوم امسال: ۱۴.۸ مگابیت در ثانیه – تغییر نسبت به مدت مشابه سال قبل: ۲۶ درصد افزایش
۹- لاتویا – میانگین سرعت اینترنت در فصل سوم امسال: ۱۴.۵ مگابیت در ثانیه – تغییر نسبت به مدت مشابه سال قبل: ۸.۹ درصد افزایش
۱۰- جمهوری چک – میانگین سرعت اینترنت در فصل سوم امسال: ۱۴.۵ مگابیت در ثانیه – تغییر نسبت به مدت مشابه سال قبل: ۱۸ درصد افزایش

 

فلوک عصای دست یک ادمین شبکه

تستر کابل شبکه یکی از تجهیزات تست کابل در شبکه های کامپیوتری است. اطلاعاتی که می توان از یک تستر کسب کرد با توجه به نوع آن وسیله متغیر است ولی از جامع ترین اطلاعات می توان به احتمال قطعی در طول مسیر، میزان متراژ و افت و … اشاره کرد. شرکت Fluke در سال 1948 تاسیس شده و تاکنون محصولات خود را به بیش از 120 کشور دنیا ارسال کرده است.

تست فلوک نمونه ای از این نوع تست ها می باشد. میزان داده و اطلاعاتی که از این دستگاه بدست می آید به مراتب بهتر و بیشتر از سایر تستر ها می باشد. در این نوع تست تجهیزات و اتصالات طول مسیر و استانداردهای لازم مورد بررسی قرار گرفته و در دستگاه ذخیره می شود و نهایتاً می توان گزارش کامل را در اختیار داشت.

از دیگر آیتم هایی که در گزارش تست فلوک بدست می آید می توان به موارد زیر اشاره کرد:

  • تست لایه فیزیکی شبکه شامل کابل، کیستون و پچ پنل و …
  • تایید اصل یا غیر اصل بودن تجهیزات Passive شبکه
  • قطع یا ضعیف بودن رشته‌های کابل به کیستون
  • تعیین دقیق طول کابل و گزارش ایرادات اتصالات پچ‌پنل و کیستون
  • وجود و محل دقیق نویز در مسیر کابل
  • وجود کشش یا خمیدگی و محل آن در مسیر کابل
  • اندازه گیری پارامترهای فیزیکی و مفهومی لینک از قبیل
  • سرعت تست بالا برای کابلهای Cat و فیبر نوری
  • ارائه گراف رنگی

جشن بزرگ HP برای تبدیل شدن به دو شرکت مجزا

«مِگ ویتمن» رئیس هیئت مدیره و مدیر عامل Hewlett Packard Enterprise که ریاست هیئت مدیره شرکت HP Inc را هم برعهده دارد، روز گذشته مراسم جشن راه‌اندازی رسمی مرکز ارائه خدمات سازمانی Hewlett Packard Enterprise را برگزار کرد تا به صورت رسمی سهام این شرکت جدید وارد تالار بورس نیویورک (NYSE) شود.

با تصمیم ویتمن شرکت HP به دو بخش تقسیم شد تا مرکز ارائه خدمات سازمانی و مرکز تولید سیستم‌های سخت‌افزاری خانگی آن از یکدیگر مجزا شوند و HP وارد مرحله جدیدی از فعالیت‌های خود شود.

این تصمیم ۷۶ سال پس از آن صورت گرفت که «بیل هیولِت» و «دِیو پاکارت» شرکت Hewlett-Packard را در گاراژی واقع در شهر پائوآلتو تاسیس کردند.

این جداسازی به گونه‌ای انجام شده است که بر اساس آن بخش اعظم کارمندان و شرکای HP در قلب مرکزی این شرکت در بخش Hewlett Packard Enterprise به فعالیت خود ادامه می‌دهند.

ارزش شرکت HP در مجموع ۱۱۰ میلیارد دلار محاسبه می‌شود که مرکز ارائه خدمات سازمانی آن در قالب یک شرکت مجزا با ۲۵۲ هزار کارمند و ارزشی بالغ بر ۵۳ میلیارد دلار به فعالیت‌های خود ادامه می‌دهد.

در بخش دیگر شرکت HP Inc با ۵۰ میلیارد دلار سرمایه و ۵۰ هزار کارمند حضور دارد که به صورت ویژه بر بازار جهانی رایانه‌های شخصی و چاپگرها تمرکز می‌کند.

ویتمن توضیح داد که «لئو آپوتِکر» مدیرعامل اسبق HP نیز در زمانی که قصد داشت از این شرکت خارج شود نخستین زمزمه‌ها در مورد جداسازی این شرکت از یکدیگر را منتشر کرده بود و هم‌اکنون این اتفاق عملی شد.

معرفی اولین ساعت هوشمندتوسط اچ پی در سال 1977

طی سال‌های اخیر بازار تولید و معرفی انواع ساعت‌های هوشمند و دیگر ابزارهای پوشیدنی رونق گرفته و از کمپانی‌های بزرگی چون اپل و سامسونگ گرفته تا شرکت‌های گمنام چینی در این زمینه فعال هستند. اما جالب است بدانیم عرضه‌ی اولین ساعت هوشمند به ۳۸ سال قبل باز می‌گردد که اچ‌پی از مدل HP-01 رونمایی کرد.

وقتی در سال ۲۰۱۵ صحبت از ساعت‌های هوشمند می‌شود، بسیاری از کاربران بلافاصله سراغ برندهایی چون اپل، سامسونگ، هواوی، موتورولا، پبل یا ال‌جی بروند. ولی جالب است بدانید ۳۸ سال قبل حتی قبل از اینکه این کمپانی‌ها به فکر تولید ساعت هوشمند بیفتند یا حتی پیش از اینکه جرقه‌ی عرضه‌ی ساعت‌های MSN Direct و SPOT در ذهن ردموندی‌ها تداعی شود، این هیولت‌پاکارد بود که با معرفی مدل HP-01، عملا از اولین ساعت هوشمند رونمایی کرد.

وب‌سایت Hodinkee با بررسی این ساعت به چرایی این موضوع پرداخته است که چرا باید با توجه به استانداردهای امروزی، اچ‌پی-۰۱ را اولین ساعت هوشمند دنیا بدانیم. درست است که این ساعت اولین نمونه‌ی دیجیتال یا حتی اولین مدل مجهز به ماشین حساب نیست، ولی بهره‌گیری از یک نمایشگر ال‌سی‌دی با قابلیت نمایش هفت کاراکتر قرمز رنگ، کیبورد ۲۸ کلید، کورنومتر، تایمر، تنظیم ساعت هشدار و امکان ذخیره‌سازی و بازخوانی داده‌ها باعث شده بود در سال ۱۹۷۷ میلادی یکی از بهترین ابزارهای تکنولوژی را بر روی مچ خود ببندید.

نکته‌ی قابل توجه دیگر درباره‌ی ساعت هوشمند HP-01 به استفاده از یک قطعه کوچک با کارایی قلم استایلوس برمی‌گردد که داخل بند ساعت قرار می‌گرفته و برای استفاده از برخی کلیدهای ماشین حساب کاربرد داشته است. این ساعت با سه باتری کار می‌کرده و قیمت ۶۹۵ دلاری آن باعث می‌شده در زمان خودش محصولی گران‌تر از یک ساعت رولکس داشته باشید. ولی بدون شک می‌توانیم بگوییم محصول اچ‌پی را باید جد بزرگ ابزارهای هوشمند پوشیدنی فعلی با نمایشگرهای لمسی بدانیم که کلکسیونرهای زیادی دنبال آن هستند.

تحقیقات اف.بی.آی در مورد نفوذ هکرها به شرکت Juniper

رویترز اعلام کرد: پلیس فدرال آمریکا در حال تحقیق در مورد نفوذ هکرها به Juniper Networks سازنده تجهیزات شبکه‌ای و سخت‌افزاری مختلف است.

اف.بی.آی بیم دارد که این حمله توسط یک دولت خارجی رخ داده باشد و این دولت کدهای معیوب خود را به منظور جاسوسی از تجهیزات شبکه‌ای ساخت این شرکت به کار گرفته باشد.

Juniper Networks روز گذشته از شناسایی دو مشکل امنیتی خبر داد که بر محصولات و پلاتفورم‌های مجهز به نرم‌افزار ScreenOS تاثیر می‌گذارند.

شرکت مذکور به همین منظور یک وصله امنیتی عرضه کرده و به کاربران محصولات خود توصیه کرده تا سیستم‌هایشان را به روز کنند و وصله‌های مذکور را که دارای بالاترین درجه اولویت هستند نصب نمایند.

مقامات امنیتی آمریکا بیم دارند که هکرها با بهره‌گیری از این حفره‌ها بتوانند به داده‌های رد وبدل شده شرکت‌های خصوصی و نهادهای دولتی از طریق شبکه‌های رایانه‌ای دسترسی پیدا کنند.

IBM چهار میلیارد دلار سهام خود را می‌خرد

هیئت مدیره IBM موافقت کرد تعداد زیادی از سهام خود موجود در تالار بورس را به ارزش ۴ میلیارد دلار خریداری کند و علاوه بر این، به‌ازای هر سهم خود ۱.۳۰ دلار سود نقدی را هم در فصل پیش‌رو برداشت نماید.

این ۴ میلیارد دلار سهام در کنار ۲.۴ میلیارد دلار سهامی خریداری می‌شود که از خرید ۵ میلیارد دلاری سهام IBM در سال گذشته جا مانده بود.

شرکت IBM اعلام کرد که قصد دارد سهام خود را در بازار آزاد خریداری کند یا اینکه در فواصل زمان مختلف، با نقل و انتقالات خصوصی این میزان سهام را در اختیار بگیرد که البته این اتفاقات بستگی به شرایط بازار دارد.

لازم به ذکر است پس از آنکه خبر مربوط به خرید سهام IBM توسط خود این شرکت منتشر شد، ارزش هر سهام آن کاهش یافت.

«جینی رامتی» مدیرعامل IBM با انتشار بیانیه‌ای توضیح داد که بازپس‌گیری سود سهام و خود سهام اتفاقی است که می‌تواند سود مالی قابل ملاحظه‌ای را برای سهامداران این شرکت به همراه داشته باشد.

در این بیانیه گفته شد: «ما یک استراتژی ارزشمند جدید در نظر گرفتیم که بر اساس آن می‌کوشیم منابع مالی خود را متمرکز کنیم و نوآور‌ی‌های بیشتر را در بازار جهانی ارائه دهیم. ما کسب و کار خود را مدیریت می‌کنیم تا برای طولانی‌مدت بتوانیم حضور موفق در بازار جهانی داشته باشیم. با این کار می‌توانیم حمایت سهامداران خود را نگه داریم و ارزش هر سهم خود را بالا ببریم.»

خدمات سازمانی HP روی فضای ابری مایکروسافت

مرکز ارائه خدمات سازمانی اچ‌پی موسوم به Hewlett-Packard Enterprise همکاری‌های جدیدی را با مایکروسافت آغاز کرد تا به کمک پلتفرم پردازش ابری Azure بتواند سرویس‌های خود را به کاربران ارائه دهد.

شرکت مایکروسافت بهترین گزینه برای ارائه خدمات ابری عمومی HPE محسوب می‌شود و بازوی سازمانی HP با این اتفاق می‌تواند تمام سرویس‌های Azure مایکروسافت را در اختیار بگیرد.

«مِگ ویتمن» مدیرعامل HP در جریان انتشار گزارش مالی مربوط به فصل چهارم سال مالی ۲۰۱۵ توضیح داد که همکاری‌های جدید می‌تواند آغاز ورود جدی HP به بازار جهانی خدمات سازمانی باشد.

بدیهی است که HPE برای آغاز فعالیت‌های خود در عرصه خدمات پردازش ابری سراغ مایکروسافت رفت و دو شرکت رقیب یعنی گوگل و آمازون را کنار گذاشت. هر دو شرکت مایکروسافت و HP تخصص ویژه در عرصه رایانه و سرور دارند و هر دوی آنها می‌کوشند مجموعه‌ای از ابزارهای کاربردی و سرویس‌های پردازش ابری را در اختیار مشتریان خود بگذارند.

ویمتن در این خصوص توضیح داد: «مایکروسافت می‌تواند تمام اهداف ما در زمینه ارائه خدمات ابری چندگانه به سازمان‌ها را محقق کند.»

البته باید توجه داشت این همکاری به آن معنی نیست که HPE در آینده سراغ شرکت‌های گوگل و آمازون نرود. زیرا شرکت‌های مذکور امکاناتی دارند که HPE به کمک آن می‌تواند نیاز بخش دیگر مشتریان خود را پاسخ دهد.

خرید جدید سیسکو در زمینه تحلیل سریع کلان داده‌ها

شرکت سیسکو اوایل ماه جاری اعلام کرد که می‌خواهد گام‌های بلندتری در عرصه اینترنت اشیاء(IoT) بردارد و در این زمینه محصولات تخصصی خود را برای کارخانه‌ها، سیستم‌های حمل و نقل، مراکز خدماتی و صنایع نفت و گاز ارائه دهد.

سیسکو به منظور انجام بخشی از این سرمایه‌گذاری بزرگ روز گذشته اعلام کرد شرکت ParStream را خریداری کرده است. این شرکت به صورت ویژه محصولات تخصصی در زمینه مراکز داده تحلیلی را ارائه می‌دهد و شرکت‌های مختلف امکان می‌هد تا حجم وسیع اطلاعات را در آن واحد تحقیق کنند و بتوانند نتایج آن را در زمینه‌های گوناگون مورد استفاده قرار دهند.

به گفته سیسکو، این خرید هم‌اکنون مراحل پایانی خود را به سر می‌برد و پیش‌بینی شده است که واگذاری کامل در پایان فصل دوم سال مالی ۲۰۱۶ انجام شود.

«راب سالوانیو» مدیر سرمایه‌گذاری سیسکو توضیح داد که خرید شرکت ParStream به آنها کمک می‌کند تا بتوانند سریع‌تر و وسیع‌تر از قلب کلان داده‌ها را تحلیل کنند، از این تحلیل‌ها نتایج دقیق‌تری ارائه دهند و میلیون‌ها داده را در آن واحد فیلتر کنند تا کسب و کارهای مختلف بتوانند از اطلاعات موجود به صورت کاربردی استفاده کنند.

به گفته سالوانیو، سیسکو بر این باور است که ارزش IT را داده‌ها تعیین می‌کنند و هرچه این داده‌ها بهتر و دقیق‌تر تحلیل شوند، خدمات بهتری در این زمینه ارائه شده است.

استراتژی جدید سیسکو این است که بتواند در عرصه اینترنت اشیاء گام‌های گسترده بردارد و تقویت خدمات تحلیل کلان داده نیز بخشی از این استراتژی بزرگ محسوب می‌شود.