Bonjour,
Le node "hache" a rencontré un incident matériel aux alentours de 20h30.
Notre équipe travaille sur l'incident, et change des disques NVMe responsables de l'incident. + reconstruit le raid concerné.
Aucune perte de données n'est à prévoir, et nous faisons au plus vite.
Nous sommes alors tenus par des délais matériel.
Dès opération terminée le tout reviendra en ligne optimal.
Malheureusement, l'incident n'était pas prévisible et ne pouvait faire l'objet d'une maintenance planifiée.
Il s'agit alors d'une maintenance curative.
Cordialement
Service Technique
Bonjour,
Conformément à nos exigences qualitatives, nous mettons à jour le matériel physique de certains serveurs.
Ceci, afin de toujours vous proposer du matériel actuel, à niveau, et aux performances optimales.
Une coupure de ~10/15mns peut exister sur un node lors d'une mise à jour matérielle. Même si, dans la majorité des cas, nous traitons ces demandes de nuit. Parfois, certains serveurs, pour des contraintes de monitoring/production, peuvent êtres traités vers entre 22h et minuit. Heure Française.
Aucune opération n'est réalisée pendant les heures ouvrables, ou de "jour"/en journée.
Cette durée de coupure n'impacte pas les données, ni le fonctionnement courant des sites hébergés. Elle est simplement nécessaire aux changements CPU/RAM.
Dans certains cas, l'évolution matérielle concerne un remplacement physique complet du serveur, qui peut être déplacé/mis en production dans un autre datacenter o2switch.
Auquel cas, la durée de coupure peut être variable de ~35 à 45mns maximum.
Cette maintenance ne concerne pas les nouveaux hébergés.
Si votre email est correctement renseigné en contact sur votre cPanel, vous êtes susceptible de recevoir une notification de maintenance préalable. Auquel cas, si vous souhaitez répondre et/ou poser des questions merci de faire un email séparé à support@o2switch.fr
Cordialement
Equipe Technique.
Bonjour,
Dans le cadre d'une maintenance planifiée, certains serveurs distants destinés à JetBackups seront indisponibles depuis cPanel entre le Vendredi 24 au soir et le Lundi 27 Mars courant de journée.
Si le jeu d'archives disponibles ne convient pas aux besoins pendant cette période, vous pouvez demander au support re-activation sur cPanel du serveur distant concerné.
Cordialement
Avec nos excuses pour cette gène,
Service Technique
Bonjour,
Le node a rencontré un incident système+matériel le Samedi 18 Mars 2023 vers 0h00.
Ce dernier a du être totalement réinstallé et les données système restaurées à partir d'un backup.
Fin de maintenance : ~2h45. Les services sont de nouveau actifs.
Cordialement
Service Technique
Bonjour,
Nous analysons actuellement un incident détecté par monitoring le 02/03/2023 sur "palmier".
Des opérations techniques sont en cours sur une grappe RAID. Et faisons au plus vite pour rétablir le service qui peut être impacté.
Service Technique
Bonjour,
Nous avons rencontré ce matin, vers 9h45, un incident général sur les serveurs DNS ns1/ns2.
Ces serveurs DNS sont des clusters, des regroupements de plusieurs serveurs dont les requêtes sont réparties entres de nombreuses machines physiques. C'est alors ce qui permet à la fois la redondance, et la résolution rapide des requêtes, dont et parfois sur plusieurs zones géographiques.
Vers 9h40, un problème de zone a été constaté sur l'un des serveurs du cluster.
Peu après, et jusqu'à 10h, malgrès les protections en place pour éviter cette situation, le problème s'est répliqué aux 3/4 des machines physiques des clusters.
Nous avons immédiatement lancé les opérations de correction. Néanmoins et compte tenu de la complexité de cette infrastructure, et du nombre de serveurs physiques, des tâches lourdes sont nécessaires pour corriger le cas.
Certaines zones (France, Europe du Sud) ont commencé à de nouveau répondre vers 10h15.
D'autres, vers 10h30, et l'intégralité répond de nouveau correctement depuis ~10h45.
Le service étant de nouveau conforme, nous analysons le cas, et prendrons des mesures pour éviter qu'un tel incident soit possible. Autant sur la couche réseau, que la couche applicative.
Nous nous excusons vivement de la gène générée, et nous avons fait au plus vite pour traiter la situation de manière curative.
Service Technique
Bonjour,
Nous rencontrons un incident matériel sur blub.
Une intervention est en cours afin de résoudre le tout. Le délai de résolution dépend d'un délai de resync/recopie matériel.
Nous faisons au plus tôt afin de rétablir toute perturbation sur "blub". Seul un serveur est concerné.
Cordialement
Service Technique
Bonjour,
Conformément à nos exigences qualitatives, nous mettons à jour le matériel physique de certains serveurs.
Ceci, afin de toujours vous proposer du matériel actuel, à niveau, et aux performances optimales.
Une coupure de ~10/15mns peut existe sur un node lors d'une mise à jour matérielle. Même si, dans la majorité des cas, nous traitons ces demandes de nuit. Parfois, certains serveurs, pour des contraintes de monitoring/production, peuvent êtres traités de jour. Nous tâcherons alors, le plus possible, de minimiser le délai.
Cette durée de coupure n'impacte pas les données, ni le fonctionnement courant des sites hébergés. Elle est simplement nécessaire aux changements CPU/RAM.
Cette maintenance ne concerne pas les hébergés récents.
Cordialement
Equipe Technique.
Cher Hébergé,
Vous êtes hébergé chez o2switch et nous vous remercions vivement de votre confiance, renouvellée chaque jour.
Depuis la création d'o2switch, nous avons comme priorité de vous proposer des services de grande qualité, simples, et au tarif le plus compétitif possible.
Nous avons conscience que votre hébergement web est important pour vous, et que sa fiabilité est cruciale pour votre activité professionnelle, ou vos loisirs.
Dans nos démarches quotidiennes, et au fil des années, nous avons mis un point d'honneur à répondre aux exigences les plus strictes.
Nous gérons nos propres datacenters, sans intermédiaire et sans location de salles ou d'espaces à des tiers.
Cela permet à notre équipe d'être relativement réactive sur tout incident. Nous ne dépendons alors pas du délai d'autres prestataires pour réaliser des interventions sur nos équipements, et nous pouvons à guise accroitre notre parc de serveurs.
Ainsi, nous n'avons pas de contrainte économique à étendre notre infrastructure et pouvons fournir une prestation de haute qualité.
Nous nous refusons à réaliser toute délocalisation de nos équipements et de nos équipes techniques dans des pays aux coûts avantageux. (comme dans les pays de l'Est).
Chaque jour des interlocuteurs qualifiés sont là pour vous répondre, basés dans nos bureaux en France. Chacun porte votre satisfaction comme une priorité.
Nous améliorons chaque jour nos infrastructures, nos outils, et plus généralement l'offre d'hébergement pour permettre de répondre aux besoins modernes.
Nous innovons régulièrement pour nos hébergés. Nous changeons régulièrement et physiquement nos serveurs pour adopter les dernières évolutions technologiques (tout en recyclant/donnant une seconde vie à nos serveurs auprès d'autres prestataires).
En tout temps, o2switch est là pour accompagner ses hébergés, et prendre en considération tous vos besoins. Nous écoutons vos suggestions pour devenir à chaque instant meilleur !
L'Offre Unique est un grand succès, et nous privilégierons toujours la qualité aux économies. Economies qui peuvent s'avérer désastreuses dans le contexte d'un site e-commerce, ou pour un travail qui vous tient à coeur.
Le contexte économique actuel change, et vous pouvez le voir chaque jour dans vos dépenses quotidiennes : les matières premières augmentent chaque jour et le coût de la vie n'est plus le même qu'il y a un an.
Chez o2switch nous avons toujours cherché à trouver des solutions afin d'éviter d'impacter le tarif de nos prestations. C'est ainsi que l'Offre Unique n'a jamais augmenté depuis plus de 10 ans, et aura même baissé lors du passage à la TVA Française 20%.
Ce très faible coût a toujours été une marque de fabrique, et aura même parfois apporté un doute à nos hébergés car bien moindre qu'ailleurs, à services identiques.
Energétiquement, nous avons privilégié depuis longtemps des moyens modernes, comme le refroidissement passif de nos serveurs à l'aide de "dry coolers". Ainsi, une grande partie de l'année nous n'avons pas d'usage de la climatisation. Ces investissements ont généré un gain conséquent autant financier, que pour notre planète.
Nous avons aussi mis en place des serveurs aux CPU "low voltage" permettant un gain notable de consommation pendant les heures creuses de fonctionnement de vos projets.
Nous sommes cependant dans un contexte économique particulier qui fait chaque jour les unes de l'actualité.
Le prix de l'électricité sur le marché de gros, mi-2021 était aux alentours de 50€/MWh. Depuis, il aura fortement augmenté, et atteint 450€/MWh en Juillet 2022.
Typiquement, les coûts de l'énergie représentent aujourd'hui une augmentation entre 3 et 4x pour nos datacenters, après négociations.
L'Offre Unique inclus aussi un nom de domaine. Chaque année, les coûts facturés à o2switch par les gestionnaires de noms de domaines augmentent.
Pour autant, nous souhaitons toujours préserver un nom de domaine inclus avec l'hébergement, par simplicité, par transparence.
Il en va de même pour les coûts des licences que nous utilisons, qui augmentent au fil du temps. Par exemple cPanel aura, depuis 3 ans, augmenté de +200% tout en restant néanmoins une interface aboutie et fiable.
Socialement, nous devons accompagner nos équipes par des augmentations de salaire. Cela, pour suivre l'inflation et permettre un confort de vie décent.
Un collaborateur impliqué, heureux, étant un atout indispensable à la satisfaction de nos hébergés.
Aujourd'hui, o2switch, comme tout prestataire d'hébergement, doit faire des choix. Ces choix doivent êtres réalisés avec nos hébergés, en prenant en considération le besoin qu'ils ont de leur hébergement.
Dans ces choix, il est :
- Soit question de faire des concessions sur la qualité des prestations et la rigueur de gestion des serveurs.
- Soit question d'envisager une augmentation tarifaire, mesurée, contenue, en prenant à notre charge la majorité des surcoûts.
Nous avons alors été amenés à consulter une partie de nos hébergés, de manière anonyme, afin de comprendre les usages qu'ils ont de leur service.
Pour nos hébergés, la performance et la sécurité sont essentielles. Majoritairement, vous accordez votre confiance à nos services pour la richesse des fonctionnalités, et les ressources très conséquentes que nous mettons à disposition.
Contrairement à certains confrères, nous ciblons depuis toujours l'excellence face aux prix, la transparence face aux promotions utopiques.
De même, nous souhaitons être un exemple, un acteur engagé dans une démarche sociale, éthique, responsable. Envers nos hébergés, envers nos collaborateurs, et envers l'industrie même de l'hébergement web.
Ce contexte impose d'augmenter le tarif de l'Offre Unique, autant pour les nouvelles créations que pour les futurs renouvellements.
En effet, nous ne souhaitons pas changer notre politique de qualité et de proximité avec nos hébergés. Nous avons compris qu'elle était essentielle à vos yeux.
De même et toujours, l'Offre Unique o2switch se souhaite une offre sans équivalent, la moins chère sur le marché à prestations similaires.
Aussi, à compter du Mercredi 16 Novembre 2022, le tarif régulier de l'Offre Unique passera de 5€ à 7€ HT/mois.
Cette augmentation va permettre à o2switch de maintenir durablement la qualité, l'évolution de ses services.
Nous espérons que ces explications, cette transparence, permettront de comprendre cette augmentation.
Nous ne pouvons jamais remercier assez nos hébergés pour leur fidélité actuelle, et future.
Equipe o2switch
Bonjour,
"hello" a rencontré un incident sur une interface réseau. Problème matériel, non prévisible ayant nécessité remplacement physique de l'interface concernée.
Nous avons procéder aux opérations dans les plus brefs délais, et nous nous excusons de la gène générée.
Nous restons à votre disposition,
Service Technique
Bonjour,
Un serveur du node "india" a rencontré un incident impactant la partie MySQL.
Début d'incident : 13:25
Fin d'incident : ~16:30
Nombre de sites web impactés : ~70 à 80
Le serveur MySQL concerné a rencontré une corruption de son système de fichiers dédié et spécifique.
La corruption aurait pour conséquence un disque HS, puis une erreur de re-sync RAID (probablement du controlleur). Ce type de situation étant relativement rare. Naturellement, la situation n'était malheureusement pas prévisible nous n'avons pas eu de remonté SMART/erreur en logs SQL au préalable.
Nous avons donc, afin de rétablir les services, été sous la contrainte de restaurer des sauvegardes du dit serveur MySQL sur à la fois des disques neufs, et un serveur MySQL à neuf matériellement et logiciellement.
Typiquement MySQL dispose de 4 protections :
- Les volumes du dit serveur étaient en RAID.
- Trois sauvegardes / jour sont opérées sur des temps différents, en fonction des tailles de bases, utilisateurs du serveur, etc. Par un script interne + par JetBackup.
Nous avons alors restauré la sauvegarde globale, qui était la plus pertinente au collectif, dont la date s'étale entre ~minuit et 3h du matin.
Le différentiel du matin est alors, forcement, et malheureusement perdu.
Il est possible que des dumps plus récents de quelques minutes/heures existent, en fonction des comptes, depuis l'outil JetBackup du cPanel.
Dès lors, si cela s'avère nécessaire vous pouvez réaliser en toute autonomie une restauration depuis l'outil mis à disposition.
Si vous avez de votre côté eu des exigences plus fortes et vos propres systèmes de backups à des intervalles plus adaptées à votre situation, vous pouvez demander à notre équipe de réaliser pour vous une restauration à partir d'un de vos propres fichiers. Fichier à fournir au format .sql non compressé.
Cordialement
Service Technique
Bonjour,
Nous réalisons cette nuit une opération de maintenance planifiée sur les serveurs destinés aux stockages externes des archives JetBackup.
L'opération devrait durer une partie de la nuit, voir déborder, pour certains serveurs, sur la journée de demain.
En l'attente, l'accès des archivages notés "Distant" sur JetBackup peut être dégradé. Le retour reviendra seul à la normale.
Merci de votre compréhension
Service Technique
Bonjour,
Nous avons constaté à plusieurs reprises des incidents sur un serveur physique "cow".
Depuis ~ 15jrs, le serveur s'arrête et l'iLO interne, qui n'est pas défectueux (serveur HP) bloque en erreur fatal : écran rouge, mais aucune erreur cohérente ou permettant d'identifier l'origine du cas.
De fait, des plantages "bruts" matériels ont été constatés à 5 reprises (à intervalle tous les 2/3jrs).
A chaque fois, des opérations curatives, à l'aveugle, sont réalisés :
- Changement des CPU
- Changement de la ram
- Changement du backplane SAS
- Changement du contrôleur raid.
Ce jour, ~10h30, l'incident s'est à nouveau produit.
Le cas ne pouvant pas persister et n'étant pas conforme avec nos exigences de service, nous avons remplacé matériellement l'intégralité du serveur physique. Dont les disques système, recopiés.
Le service est de nouveau opérationnel vers ~14h.
Nous nous excusons pour la gène générée.
Cordialement
Equipe o2switch
Bonjour,
Le serveur SQL d'un node de "berlin" a rencontré un incident grave et relatif à des corruptions de tables InnoDB.
Malheureusement, il est impossible de réparer la corruption, la seule solution étant une restauration de données.
Nous avons donc lancé, à partir de backups réalisés de notre côté :
- Le remplacement des disques de stockage d'SQL.
- La restauration des bases de données en date du 16/02/2022 nuit/matin.
Le processus est en cours. Son délai dépend du volume de données à restaurer et vous devriez progressivement constater le retour en ligne de chaque base concernée. Le retour est prévu de maintenant à dans l'après midi.
Cordialement
Service Technique
Bonjour,
Nous rencontrons un incident matériel sur un node SQL de "tacos"
La réparation est en cours.
Cordialement
Service Technique
Bonjour
Un switch de distribution a été remplacé en salle suite à incident.
Les services sont revenus en ligne après ~10/15mns.
Type d'incident : shut du switch, pas de motif visible.
Le switch a été totalement remplacé pour aller au plus vite, investigations en cours après incident.
Cordialement
Service Technique
Bonjour,
Nous constatons des comportements anormaux sur un node de guepe.
De fait, nous devons réaliser des changements matériels préventifs afin d'éliminer toute source de gène dépendante de nos services.
Les opérations seront réalisées ce jour, entre 11h et 16h. sous critères d'urgence.
Une à deux coupures de service de ~10/15mns peuvent êtres rencontrées.
Avec nos excuses pour la gène générée.
Cordialement
Service technique
Bonjour,
Un grand nombre de serveurs physiques disposent d'un uptime supérieur à 500 jours.
Nous appliquons régulièrement, à chaud, les mises à jour kernel & de securité par l'intermédiaire de patchs. Ceci, afin de ne pas devoir redémarrer les serveurs régulièrement et lors de la sortie d'un nouveau kernel.
Cependant, il est bon d'appliquer de nouveaux kernel de manière native.
Aussi, nous profitons du 31/12, jour relativement calme en visiteurs, pour réaliser un redémarrage vers un kernel nativement à jour.
Ceci permet, proactivement, d'éviter des incidents liés à l'accumulation de patchs sur des kernel Linux anciens.
Certains serveurs sont alors relancés. Opération qui prend ~5 à 10mns.
Aucun impact visible avant/après opération pour les utilisateurs des hébergements.
Cordialement
Service Technique.
Bonjour,
Nous allons procéder ce jour au remplacement complet et préventif d'un node de "jambon".
En cause, des erreurs sur le backplane SAS. Pertes de disques aléatoires.
[534059.553192] hpsa 0000:02:00.0: waiting 2 secs for device to become ready.
[534060.115457] hpsa 0000:02:00.0: SCSI status: LUN:0000000000801001 CDB:12010000040000000000000000000000
[534060.115461] hpsa 0000:02:00.0: SCSI Status = 02, Sense key = 0x05, ASC = 0x25, ASCQ = 0x00
[534060.118370] hpsa 0000:02:00.0: Acknowledging event: 0x80000012 (HP SSD Smart Path configuration change)
[534061.600347] hpsa 0000:02:00.0: waiting 4 secs for device to become ready.
[534065.632231] hpsa 0000:02:00.0: waiting 8 secs for device to become ready.
[534073.824090] hpsa 0000:02:00.0: waiting 16 secs for device to become ready.
[534075.380858] hpsa 0000:02:00.0: SCSI status: LUN:0000000000801001 CDB:12010000040000000000000000000000
[534075.380861] hpsa 0000:02:00.0: SCSI Status = 02, Sense key = 0x05, ASC = 0x25, ASCQ = 0x00
[534075.383360] hpsa 0000:02:00.0: Acknowledging event: 0x80000012 (HP SSD Smart Path configuration change)
L'opération sera réalisée avec le minimum de délai possible.
Elle ne peut être planifiée ni différée afin d'éviter un incident technique.
Cordialement
Service Technique
Bonjour,
Le node "palmier" a rencontré un incident sur un volume NVMe destiné à MariaDB/sql.
Le volume a été remplacé et les données correctement dupliquées.
Aucune perte de donnée n'est naturellement à prévoir.
Cordialement
Service Technique
Bonjour,
Nous avons rencontré un incident sur une wave Orange 100G Clermont-Ferrand <> Paris Saint Denis.
L'incident n'a pas été visible des hébergés, l'ensemble de notre réseau étant multi-redondé et multi-liens.
La situation est rétablie.
Cordialement
Service Technique
Bonjour,
Le node "norse" a rencontré un incident matériel.
Un riser PCI/E (carte où sont raccordés les volumes NVMe) est tombé hors service. Nous avons procédé au remplacement matériel complet du serveur concerné.
Début d'incident : 20h40
Fin d'incident : ~21h40
Cordialement,
Service Technique
Bonjour,
Le node concerné en sujet rencontre un incident.
Nous travaillons actuellement au rétablissement.
Cordialement
Service Technique
Bonjour,
Des problématiques ont été remonté à nos services dans le weekend concernant un node d'aligot.
Il était alors question d'une augmentation notable de l'IOWAIT sur un système sans raison particulière.
Le problème était alors présent par moment, sans explication technique. Généralement, ce type de problème peut avoir pour origine une défaillance du contrôleur disque -en l'absence- de consommation CPU.
De fait, ce Mardi 07/09/21 nous avons réalisé une maintenance d'urgence visant à remplacer totalement, physiquement, le serveur physique concerné.
L'opération a été réalisé en critère d'urgence afin d'éviter tout futur incident. Sa durée n'aurait pas dù excéder les 15mns.
Cependant, au remplacement le volume système a été détruit et contenait énormément d'erreurs. Les causes ne sont pas définies mais nous pensons à la piste du controlleur défaillant. Ceci conforte alors la nécessité d'une maintenance urgente non planifiée au préalable.
Nous avons donc été dans l'obligation de changer intégralement le volume concerné et de restaurer les données relatives.
Ceci a provoqué un délai imprévu, physique, le temps de restauration.
Aucune perte de données n'est à prévoir.
Le service redevient optimal.
Cordialement
Service Technique
Bonjour,
Ceci est un rappel d'opération de maintenance.
Une notification préalable a déjà été envoyé par mail en date du 12/07/2021.
Nous devons transformer certains nodes sous système CentOS6 vers une nouvelle version.
Cette opération permettra de fonctionner sous une version à jourdu système, d'améliorer et de pouvoir fournir de nouveaux services.
Les nodes concernés sont sur les hôtes :
madrid, oranger, piou,
trigone, phobos, pam,
kilo, fraise, dolphin
L'opération est planifiée pour le Mercredi 25 Août 2021.
La durée totale est d'environ 15 à 20mns par node.
La maintenance est un remplacement du volume primaire de chaque node par un neuf contenant le nouveau système.
Dans la foulée, les CPU seront remplacés si nécessaires (évolution); et de la ram rajoutée.
Cordialement
Service Technique